なるほど、脳波画像と出力文字を学習させれば、
現在のニューラルモデルでも読み取れそう。
だがMRIみたいな巨大装置で精度7割、
オウム真理教みたいなキャップ型で3割かー。解散。
https://x.com/K_Ishi_AI/status/1888181361954922562
ちなみに実用の基準は、
誤打率8%(僕の場合)ないし5%(RTC基準)を下回ること。
なおブラインドタッチならば、
手の感覚で誤打したことがすぐにわかるため修正が容易だが、
脳波での読み取りミスを目視で探すことは極めて難しいと思う。
音声入力と同じで、リアタイで修正できないのだとしたら、
間違ったままでもヨシとする文章ならいけるだろうか?
現在のYouTubeの自動字幕は音声入力と同じ仕組みだが、
その程度の誤差で、文章を書いてるといえるか?
まだ「この技術でどこまでいける?」
という好奇心の段階だけど、実用はどうだろうね。
ニューラルモデルの最大の欠点は、
「それがどのようにして入出力を出しているかの機序が特定できないこと」だよね。
だから、「改良」ができないのよ。
何が欠点で、何が問題点か洗い出せない。
「どうしても問題だった○○が、
画期的なヒラメキで突破できた」
が不可能なところだ。
それで、この記事の一番の笑いどころは、
「こんなすごいシステムなのに、
まだqwertyを打たされるのか…」だな。
2025年02月08日
この記事へのコメント
コメントを書く
この記事へのトラックバック