今回採用された「歌唱モデル」では、2つの技術的特徴が追加。まず、人間の「ブレス(息継ぎ)音」を再現することで、人間にとってより自然に聞こえる歌声を生成。人間の歌声データから抽出した「ブレス音」の長さや強さ(音量)などの特徴を、ディープニューラルネットワーク(DNN)に学習させることで、歌の歌詞やブレスの長さ、強さの状態に合わせて「ブレス音」を予測し、歌声を生成するという。
さらに、異なる歌唱スタイルを生成。様々な曲調の歌声をDNNの学習データに追加することにより、バラード、ポップ、ラップ、ロック、童謡調などの歌唱が可能になった。
さらに今回、「りんな」がエイベックスと契約して、「AIアーティスト」としてデビューすることも決定。すでに、YouTube上で新曲「最高新記憶」を歌う姿が確認できるので、今回の技術的進歩がどのくらいあるのかをチェックだ。