GW2日目の夕方、東京・丸の内で行われたラ・フォル・じゅるねTokyo2018丸の内エリアコンサート「AIが作曲する“モンド・ヌーヴォー”」を聴いてきました、
東京都市大学教授の大谷紀子さんの進行で、AIを使った自動作曲システムで、どんな曲ができるのかを実験的にみせてくれるイベントです。
通常、人間が作曲する場合は、そのときに感情などに即した曲を作曲の技法を用いて作曲しますが、AIを使った自動作曲システムは、個人の感性に即した楽曲を自動作成するシステム。さまざまな曲の分析をする学習機能と作曲機能を持ち合わせたシステムになります。
たとえば、ある人がいやされる曲をAIに作曲させようとする場合、その人がいやされる曲の調やテンポ、和音進行やリズム進行などを分析して新しい曲を作りだすそうです。さらに、何度繰り返してもそのたびに違う曲をつくるそうで、ある人がいやされる曲という条件の中で、さまざまな要素を無限に組み合わせて曲をつくるあたりは、人間が作曲する過程に似ています。
このイベントには、ピアニストのマシュー・ローさんも参加されていて、実際にAIを使い、「もののけ姫」とユーミンの「春よ、こい」を入力してどんな曲ができるか試されました。
出てきた曲は、ところどころ2つの曲の要素が垣間見えましたが、この2曲とはまったく別の曲ができあがりました。PCで音を再現すると、なんだかよくわからない無機質な音楽に聴こえましたが、実際にマシューさんがピアノで弾いてみると(SHIGERU KAWAIのピアノ!)、PCが再現したものと同じとは思えない、美しい音楽として再現されました。
どんなにAIが分析によっていい曲を作ったとしても、その再現にはやはり生きた人間の表現力がないと、いい音楽には聴こえないんですね。AIが作曲することによって、今まで知識や経験がないとできなかった作曲が、どんな人でもできるようになるという利点はありますが、一方でAIで作曲できるから人間の作曲家がいらなくなる、なんてことになると
それはそれで問題です。
さらに、これで、AIが人間が演奏する際の表現力までディープラーニングしてしまったら、どうなるんだろう…という危惧もあります。近い将来、AIに仕事を奪われるという話もよく聞きますが、うまく共存していくためにもAIに対する知識は必要だな、と音楽の面からも感じました。
イベントが終わったあと、気軽にAIで作曲体験できるブースがあったので、試しにやってみました。杏里の「CAT’EYE」、坂本龍一の「戦場のメリークリスマス」、葉加瀬太郎の「情熱大陸」、ベートーヴェンの「月光」と4曲を選んで作曲させてみましたが、できた曲は正直なんだかよくわからない曲になってしまいました…。あんまりたくさん組み合わせると、何がなんだかわからないものになってしまうようです。
