Appleは米国時間5月13日、自社製品に今後追加する複数のアクセシビリティ機能を発表した。文字を読むのを支援する機能や、リアルタイム字幕の表示、乗り物酔いの軽減など多岐にわたり、2025年内にリリース予定だ。発表は5月15日の「Global Accessibility Awareness Day」に先立って行われた。 同社は6月9日から開催する年次イベント「Worldwide Developers Conference(WWDC)」に向けて準備を進めており、そこで「iOS 19」を含むプラットフォームのアップデートを発表する見込みだ。サムスンやGoogleがAI機能をスマートフォンに取り込む中、「Apple Intelligence」のアップデートも発表する可能性が高い。こうしたAI機能の多くは、「iPhone」や「Pixel」などのデバイスのアクセシビリティを強化してきた。 「Appl

macOS 10.15.4 Catalinaではアクセシビリティの新機能として、FaceTimeカメラなどを利用しユーザーの頭の動きとマウスポインターの動きを連動させる「ヘッドポインタ」が利用できるようになるようです。詳細は以下から。Appleは2018年にリリースしたiOS 12で、ARアプリケーション用フレームワーク「ARKit 2」を導入し、iPhoneやiPadのFace IDを利用してユーザーの顔や目の動きをトラッキングする「Face/Gaze Tracking」や舌を検知する「Tongue Detection」をサポートしましたが、Guilherme Ramboさんによると、Appleが現在開発者やPublic Betaテスター向けに公開している「macOS Catalina 10.15.4 beta」では、Macに搭載されているFaceTime HDカメラを利用し、ユーザ

1リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く