✅この記事では、Appleが公開した新しい研究「Using LLMs for Late Multimodal Sensor Fusion for Activity Recognition」を整理します。音と動きのセンサー情報だけから、どこまで人の行動が分かるのかを、なるべくやさしくひもといていきます。 今回のポイントまとめ LLMに渡すのは“生センサー”ではなく、その要約 Ego4Dと12種類のアクティビティ ゼロショット&ワンショットでどこまで当たるのか Appleが見ているのは“センサーとAIの距離”を近づけること 注目したいポイント ① 「後段で束ねる」マルチモーダルは、現実的な落としど…