Apple、自分の声を15分で生成できる機能を実装へ。iOS 17に向けて最新アクセシビリティ機能を発表
知的能力、視覚、聴覚、運動のアクセシビリティに関する新しいソフトウェア機能
Appleは5月17日、知的能力、視覚、聴覚、運動のアクセシビリティに関するソフトウェア機能を予告した。非発話者や発話能力を失うリスクのある個人向けのツールとして、今年後半にリリースする。具体的な時期は明らかにしていないが、今秋一般公開されるであろう「iOS 17」の新機能として追加されるだろう。
発表された新機能は以下のとおり。
認知障害を持つユーザーをサポートするAssistive Access
「Assistive Access」は、高コントラストのボタンと大きなテキストラベルを備えた独自のインターフェースを提供。ユーザーの認知負荷を軽減する狙いだ。
視覚的なコミュニケーションを好むユーザーに対しては、Messagesには絵文字のみのキーボードとビデオメッセージを録音するオプションが追加される。ホーム画面とアプリの視覚的なグリッドベースのレイアウト、またはテキストを好むユーザーのための行ベースのレイアウトが選択できる。
Live SpeechとPersonal Voice
「Live Speech」は、話すことができない人々や、時間とともに話す能力を失った人々を支えるために設計された。iPhone、iPad、Macで、ユーザーは自分が言いたいことを入力し、電話やFaceTimeの通話、さらには対面の会話中に音声として話すことができる。
「Personal Voice」は、自分に似た声を作成する機能。15分間の音声をiPhoneまたはiPadで録音することで、オンデバイスの機械学習機能を使って生成される。Personal Voiceで作成した音声は、Live Speechで使用できる。
Detection Mode(Point and Speak) in Magnifier
「Point and Speak」は、視覚障害を持つユーザーがカメラ越しに読み取れないものに指を向けることで読み上げてくれる。カメラ、LiDARスキャナー、そしてデバイス内の機械学習からの入力を組み合わせて実現しているという。
すごいけど日本語は後やで!って事にはならんだろうか