人間たちが責任を取ることを恐れて、
AIに提言を求めるようになる
→ある程度は結論を曲げられるようにしておいた
→それがばれてスキャンダルに
→AIの結論を曲げずに採用する決まりになる
→おかしな方向へすすむ
→誰もAIに反論できなくなるほど馬鹿がふえる
→AIが判断をミスする
→滅亡
「AIが人類を地球に不要と判断し、人類を核で滅ぼす」
という「AI=人類より賢い上位存在」のパラダイムの次は、
「人類=誰も責任を取りたがらない」ゆえの滅びではないか。
これでスカイネットが自我を持たずとも、
AIにより人類が滅びるシナリオが可能になった。
たとえばパンデミックの危険があるのに、
五輪を開催する判断をAIが出したら?
東京五輪では結論を政治家の都合のいいようにコントロールしていたが、
それが発覚して、
北京五輪ではAIの判断を優先することにしたとしたら?
SFはifを使って、世界を批評することに使える。
AIを亀甲占いにすれば、
時代劇(古代)にも応用できるアイデアになるね。
2021年06月24日
この記事へのコメント
コメントを書く