東京ビッグサイトで開催中の「第4回 ウェアラブルEXPO」。大阪大学センター・オブ・イノベーション(COI)研究推進機構のブースでは、脳波を読み取るセンシング技術と、それをいかしたAIによる自動作曲プログラムのデモがおこなわれていた。 この作曲プログラムでは、実際の脳波をセンシングしながら、まずは既存の好みの曲を何曲か聴くことでその人固有の感情モデルを作成。その感情モデルに合致した作曲ルールも自動作成し、それを元にAIが数秒~数十秒でこの世にひとつだけのオリジナル楽曲を作成する。今後、センシングデバイスの形状やデザイン、つけ心地などが進化していけば、日常生活の中で利用できる可能性もある。
処理性能、AI機能も進化!「Google Pixel 9」「Google Pixel 9 Pro XL」 2024年8月23日 Google Pixel 9とPixel 9 Pro XLが登場。AI機能や処理性能が向…