興味深い例。人工知能GPT3の書いた文章。
「人間がAIを恐れる必要がない理由について、500単語で簡潔に述べよ」
に対しての文章。
http://karapaia.com/archives/52294500.html?ref=popular_article&id=2628902-207274
ディープラーニングを根幹システムとする現在のAIは、
あることに対しての写像をニューラルネットで学習する。
この「あること」が、
言葉の自由な組み合わせや画像でもいい、
というのがディープラーニングの面白いところ。
今回の例では、
質問文を入力として、
これに対する学習結果を生成せよ、
という入出力問題として定型化される。
つまり、ある質問文と答えのペアを沢山学習しておいて、
あと文章生成のやり方もたくさん学習してある。
で、
実際の出力文は、マルコフ連鎖がベースだ。
つまり、
「ある単語が来たときに、
次に来る単語は何が確率が高いのか」
を学習しているだけなのだ。
これを、一階マルコフ連鎖(次のワード)、
二階マルコフ連鎖(次の次のワード)…
とn階に渡って学習しているから、
「ありそうな文」を生成することができる。
ある問いに対して、
最初にあり得る単語を確率的に判断して、
あとはだらだらと確率的にあり得る単語を次々に出力したものが、
AIの吐き出した文章である。
人工知能という言葉から連想される、
「考えて判断する」ではなく、
「統計的にあり得る文章生成機械」
だと考えれば、
ここに「思考、思想、考え、判断、思うこと」は、
ひとつもないことがわかる。
哲学的ゾンビ、スワンプマンと同じだ。
出力だけをみたら人間と似たもっともらしいことをやっているように見えるが、
中身が全く違うものを、人間と呼べるのか?
という問題である。
で、この例の場合、原理的に思考なるものは存在しない。
「思考した末に出力されたものを真似する」をしているだけだ。
試験の丸暗記に近いよね。
ところで、その出力だけを見ると、
段落単位ではまとまった文意が存在して、
非常に興味深い。
確率的に単語を並べていくだけで、
案外文意は通るんだなあ。
これはつまり、私たちのアイデアに近い。
あ、そうだ、こういうことを書こう、
みたいな思考の小さな単位のように見える。
しかしAIの文は、段落をまたぐたびに、
どんどん明瞭な思考を失ってゆく。
段落のたびに、「お前前言ってたこと忘れてて、
今考えて言ったやろ」の文章になっている。
つまり、AIもしくはアイデアというものは、
点である。
文章、考え、思考というものは、線である。
ある点からはじめ、次の点へ結び、次の点へ結び…
それらが全体像をなしたときに、
結論をつけるものである。
それが出来ていないわけだ。
つまりAIのこの文章は、
初心者が書いたストーリーにとても似ていると思った。
部分部分はできているものの、
前との繋がりがよくわからないし、
全体で何になっているのかよく分からない、
という感じだ。
思考やストーリーは、発散しながら収束しなければならない。
素人のストーリーやアイデアの断片や、マルコフ連鎖は、
収束せずに発散してしまうのである。
思考というのは、
ほうっておけば発散してカオスになる、
エントロピーそのものだ。
そのエントロピーに逆らって、
収束するようなひとまとまり、一連の線を作り上げることが、
文化である。
つまり、文章や思考や、ストーリーである。
初心者やAIには、これができないだけである。
つまりAIの文章は、
できていない脚本に似ている。
ほうっておけば発散するアイデアノートから、
まとまったストーリーになるには、
テーマ、考えの中心が必要だ。
AIや初心者には、
これに従って構成したり、展開していったり、
前振りをしておいて落ちをつけることが、
出来ないのだということが、
これを見れば理解できるだろう。
2020年09月12日
この記事へのコメント
コメントを書く