2021年06月24日

AIに滅ぼされるシナリオ

人間たちが責任を取ることを恐れて、
AIに提言を求めるようになる
→ある程度は結論を曲げられるようにしておいた
→それがばれてスキャンダルに
→AIの結論を曲げずに採用する決まりになる
→おかしな方向へすすむ
→誰もAIに反論できなくなるほど馬鹿がふえる
→AIが判断をミスする
→滅亡

「AIが人類を地球に不要と判断し、人類を核で滅ぼす」
という「AI=人類より賢い上位存在」のパラダイムの次は、
「人類=誰も責任を取りたがらない」ゆえの滅びではないか。

これでスカイネットが自我を持たずとも、
AIにより人類が滅びるシナリオが可能になった。

たとえばパンデミックの危険があるのに、
五輪を開催する判断をAIが出したら?
東京五輪では結論を政治家の都合のいいようにコントロールしていたが、
それが発覚して、
北京五輪ではAIの判断を優先することにしたとしたら?


SFはifを使って、世界を批評することに使える。
AIを亀甲占いにすれば、
時代劇(古代)にも応用できるアイデアになるね。
posted by おおおかとしひこ at 19:48| Comment(0) | 脚本論 | このブログの読者になる | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前: [必須入力]

メールアドレス:

ホームページアドレス:

コメント: [必須入力]

※ブログオーナーが承認したコメントのみ表示されます。