APP簡化放大更直覺!蘋果推輔助新功能 還能用iPhone靠你的聲音說話
因應即將來到的全球輔助使用意識日,蘋果宣布針對認知、言語和視覺等輔助使用需求推出全新軟體功能,其中包含針對認知功能輔助的「Assistive Access」,以及包含「Live Speech」、「Personal Voice」在內的聲音輔助功能,另外也包含在「放大鏡」功能增加的「Point and Speak」,預計會在今年稍晚時候正式推出。
此次推出功能,主要針對認知、視覺、聽覺和行動方面需求提供輔助,藉由軟硬體整合與裝置端機器學習等技術應用,讓使用者能透過iPhone等裝置獲得更好輔助效果。
其中,「Assistive Access」功能結合電話與FaceTime功能,其中整合「通話」及客製化的「訊息」、「相機」、「照片」和「音樂」等App,讓使用者能以高對比按鍵、大型文字標籤等視覺導向介面設計,讓使用者能更方便使用通話與視訊功能,或是透過只有表情符號的鍵盤快速傳遞內心情感,另外也能快速透過相機錄製影片與親友分享訊息。
而在iPhone、iPad及Mac上的「Live Speech」功能,使用者可透過打字寫下想說的話,讓裝置在電話或FaceTime通話,以及現場對話進行期間透過裝置朗誦這些文字。使用者也能將常用語句預先存放,即可在合適時候輕敲,即可在與親朋好友和同事的即時對話中快速套用,讓瘖啞人士或逐漸喪失言語能力的使用者能方便使用。
另外,針對可能失去言語能力的使用者,例如罹患肌萎縮性脊髓側索硬化症 (ALS),或是其他會逐漸侵蝕說話能力的疾病患者,「Personal Voice」可以透過讀出一系列隨機文本提示,在iPhone或iPad上錄製15分鐘長度音訊,即可以裝置端機器學習方式創造個人語音內容,並且能與「Live Speech」結合,透過iPhone或iPad協助發聲。
至於「放大鏡」中的「Point and Speak」功能,則可讓視覺障礙使用者能更輕易地與擁有數個文字標籤的實際物體互動。舉例來說,使用微波爐等家電時,「Point and Speak」會結合「相機」與光達感測元件進行輸入,配合裝置端上的機器學習效果,可在使用者手指於數字鍵盤上移動時,根據其位置朗誦出按鍵上的文字。
「Point and Speak」內建於iPhone和iPad的「放大鏡」App,並且能結合「人物偵測」、「門偵測」和「圖片描述」等其他「放大鏡」功能使用,藉此協助視覺障礙者掌握周遭環境。
其他功能如下:
• 失聰或重聽的使用者可以直接將Made for iPhone助聽裝置與Mac配對,並且自訂這些裝置,以創造舒適聆聽環境。
• 「語音控制」在文字編輯裡加入拼音建議,讓透過語音打字的使用者能夠在「do」、「due」和「dew」等類似讀音中選出正確的字詞。
• 使用「切換控制」的身體和運動障礙使用者可以將任何切換控制項化為虛擬遊戲控制器,以在iPhone和iPad上遊玩他們最愛的遊戲。
• 針對低視能使用者,Finder、「訊息」、「郵件」、「行事曆」和「備忘錄」等Mac App 中的「文字大小」變得更容易調整。
• 對快速動畫反應敏感的使用者可以自動在「訊息」和 Safari 上把內有移動物品的的影像暫停,例如GIF等。
• 對「旁白」使用者來說,Siri語音聽起來愈發自然且富於表達情感的力量,縱使高語速狀態下回饋仍然正面;使用者也可以在0.8倍速到2.0倍速之間進行選擇,並且自訂Siri對講話時的語速。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
留言