AIにどんな絵を描いてほしいか伝えると1分以内に描いてくれる(しかもかなりの腕前で)というサービスを先日実際に使ってみました。もう、驚きの連続でした!

描いてもらいたい絵を、単語の羅列でコンピュータが咀嚼しやすいように説明します。

ただそれだけ。

60秒後にはプロの絵師が描くようなレベルの「絵画」が手元に届くんです。

今回の「ROCK BLOOD」では、そのプロセスや問題点などを実際使ってみた視点で解説しています。ところで、この人工知能の技能というのは、グラフィックだけではないんですよね。

音楽の世界でもずいぶん昔からコンピューターやデジタル機器に依存する手法が多用されてきました。

80年代から90年代にかけては「シンセサイザー」や「リズムマシン」に代表される、楽器音源のデジタル化でした。でも、21世紀に入って人間の歌声もコンピュータ技術でいじることが可能になったんです。それは単純に音響効果や音色を人工的に変えたり整えたりするだけでなく、まるで整形手術の如く、場合によっては本人の素質や技量を超えて「いじる」ことができるようになっったのです。しかも、聴く側にはほとんど違いを感じさせないほどの巧妙さで。

代表的なのがいわゆる「オート・チューン」というやつで、多少ピッチが外れてもAIが自動的に本来の音程に修正してくれちゃうものです。昔は、これは「修正」の領域で使われていましたが、最近は、オート・チューン主体で、ほぼまるまる「合成」した歌声で楽曲を全て作り上げてしまうほど誰も違和感も後ろめたさも感じなくなっているようです。

あの有名なシンガーソングライターも、あの売れっ子バンドも、実はオート・チューンやドラム・マシンやコンピュータで生成されたギターサウンドでアルバムを出していたりするんです。これの一番簡単な見分け方は、彼らのライブを観に行くことです。アルバムの曲とライブで出来栄えが全然違う場合、ほぼ100%、オート・チューンの恩恵に与っている場合が多いです。

バンドをやっていると、生身の人間なのでリズムが少しずれたり、声のピッチが不安定に聴こえたりしがちですが、オート・チューンはそんなことを一切許さないので、返って不自然(整いすぎ)に聴こえるばかりか、あまりにもキッチリしすぎているのでその楽曲の世界に没入しにくく感じてしまいます。(聴き流してしまいがち)

音声データの方が画像データよりも軽いし、扱い易いこともあって先行してAI技術が浸透しましたが、今度は画像の世界でも。

でも一番の問題は、受け手(オーディエンス側)がその違いを気にしていないという事なのかもしれませんね・・・。AIだろうが人間だろうが、良いものは良いと思うのもまた、自然なことですから。

ROCK BLOOD第2話、そんな視点で是非お楽しみください。



URL: youtu.be


via THREE THREADS OFFICIAL
Your own website,
Ameba Ownd