WWDC の AI はどこに行ったのでしょうか? from engadget.com


「ダッキング自動修正」機能は、ロック画面のライブ ビデオ (インタースティシャル フレームの合成に使用されます) や新しいジャーナル アプリのインスピレーションを与えるパーソナライズされた書き込みプロンプトと同様に、オンデバイスの機械学習によって強化されています。
ただ、Apple はそれについて話しませんでした。
イベント中に Apple が自社の機械学習システムを構成するデジタルの基礎を公に説明するのに最も近かったのは、Vision Pro のペルソナ機能の説明でした。
全員がヘッドセットの後ろに隠れての FaceTime 通話ではビデオ通話の目的が果たせなくなるため、Apple は代わりに複雑な機械学習システムを利用して、Vision Pro 装着者の頭、胴体、腕、手をデジタルで再現しています。
「Vision Pro のフロントセンサーを使用した素早い登録プロセスの後、システムは高度なエンコーダー デコーダー、ニューラル ネットワークを使用してデジタル ペルソナを作成します」と Apple のテクノロジー開発グループ副社長のマイク ロックウェル氏はイベント中に述べました。
AI はイベント全体を通してセールスポイントではなく、主に後付けとして扱われ、Apple にとっては非常に有利でした。

コメント

タイトルとURLをコピーしました