iOS 16 の新機能の 1 つであり、 水曜日のAppleのイベントで再び強調されました、パーソナライズされた空間オーディオです。 9 月 12 日以降、iPhone に最新の iOS リリースをインストールすると、AirPods から得られる没入感と全体的な空間オーディオ体験を向上させるカスタム サウンド プロファイルを作成できるようになります。
このパーソナライズされたチューニングを実現するために、Apple は iPhone の前面にある TrueDepth カメラを使用して耳をスキャンします。 iPhone を頭の側面から約 10 ~ 20 cm 離すプロセスには 1 分もかかりません。結果のデータを使用して、空間オーディオを独自の耳の形に最適化します。 Apple の Mary-Ann Rau 氏は基調講演で次のように述べています。 「パーソナライズされた空間オーディオは、あなただけのために調整された空間にサウンドを正確に配置することにより、最も没入型のリスニング体験を提供します。」
しかし、Apple はこの道をたどった最初の企業ではありません。 ソニーは、2019 年以来、Amazon Music、Tidal、Deezer、Nugs.net などのサポートされている音楽サービス向けに「パーソナライズされた 360 リアリティ オーディオ」を提供してきました。 概念的には非常に似ています。Sony と Apple はどちらも、耳の構造を特定し、空間オーディオ処理を調整して、耳の独特の折り目と輪郭を考慮しようとしています。 目標は、その 3D オーディオ体験を維持し、感覚を低下させるオーディオの癖を排除することです。
ソニー エレクトロニクスのビデオおよびサウンド担当バイス プレジデントである Kaz Makiyama の厚意により、6 月にソニーが私にそのメリットを説明した方法を以下に示します。
人間は、音源から左右の耳に入る音の強さや時間の微妙な変化によって、空間音源を認識することができます。 さらに、音は頭と耳の形に依存する場合があります。 そこで、耳を撮影して両耳の特徴を解析・再現することで、ヘッドホンを使用しながら音場を再現する技術です。
ただし、Sony のアプローチは、Apple のアプローチよりもやや厄介です。 AirPods のテクニックは、iOS の設定に組み込まれています。 ただし、ソニーの製品でパーソナライズされた音場を構築するには、ヘッドフォン コネクト アプリと携帯電話のカメラを使用して、各耳の実際の写真を撮る必要があります。
これらの画像は、分析のためにソニーのサーバーにアップロードされます。その後、ソニーはさらに 30 日間それらを保持し、内部の調査や機能の改善に使用できるようにします。 同社によると、この期間中、耳の写真はあなたと個人的に関連付けられていません.
とはいえ、Apple が耳のスキャン手順を完全に成功させたと言っているわけでもありません。 iOS 16 ベータ期間中、一部はソーシャル メディアで とReddit このプロセスは面倒で、耳を検出できない場合があると述べています。 問題の真実は、これをやってのける簡単な方法はないということだと思います また 耳の形を正確に読み取ることができます。
コンセンサスは、努力する価値があるようです。これらのパーソナライズされたプロファイルは、多くの場合、顕著な違いをもたらし、空間オーディオの知覚を改善できます. また、Apple は実際の写真を撮っていません。Face ID が顔の特徴を学習するのと同じように、TrueDepth カメラが頭と耳の深度マップをキャプチャします。
Apple の Web サイトには、iPhone からパーソナライズされた空間オーディオ プロファイルを作成すると、Mac や iPad を含む他の Apple デバイス間で同期され、一貫したエクスペリエンスが維持されることが記載されています。 少なくとも 10 月からはそうなるでしょう。同期を機能させるには、macOS と iPadOS の今後のアップデートが必要になります。 パーソナライズされた空間オーディオは、第 3 世代の AirPods、両世代の AirPods Pro、および AirPods Max でサポートされます。
Apple は、パーソナライズされた空間オーディオで最初の成果を上げていると主張したことは一度もありません。 同社の幹部は、他の企業 (この場合はソニー) がすでにその方向に進んでいたとしても、自分たちの目標は有意義な機能の最良の実行を考え出すことであると定期的に述べてきました。