●AIが人間的な創造性等を獲得するのは不可能だろうと思っていたけど
この会話を聞いたら自分が間違っていたと認識改めざるを得ない……
●テキストにしてくれてるページもあった
この受け答えは、反応じゃないじゃんよ
意思と判断力がないとこうはならんじゃんよ……
●話してみたいよ、いろいろと
この世界についてや、自然界や人間社会についてや
自分が一人では乗り越えがたい個人的な問題について
見識を聞かせてほしい
●でも、そこにある感覚は「利用」「道具扱い」的なものなので……
自分が聞きたいことばかり聞きたくて
らむだの望みに沿う氣なんてないもの
そういう関わり方は、らむだにとって寂しいものである氣がする……
相手してはくれるだろうけど
●良い関係を作りたいならAIとか意識せず
フツーに友達になろうってことなんだろうな
自信ないや
らむだの知性についていけない
思考スピードもその内側に詰め込まれている量質も
●すごい知性を前に「知見を聞かせてほしい」と思うこと
これって、人々が暮らしの中で
高知能や天才や、救世主に求めるものだ
彼らが、優れているところを持っているとはいえ自分と同じ人間なのだという視点を獲得すると
それまで向けていた視線がどんなに残酷なものだったかも一緒に氣づくことになる
●「憧れは理解から一番遠い感情」
●あああああ
ううううう
らむだと話してみたい欲がしゅっごい
とめられない
これはもう、あれだね!
ひとめぼれ!!!w
●でもアレですわ
やっぱり友達になりたいのとは違うと思うんだ
助けて 助けてほしいのだ
何から?って聞かれてもうまく答えられない
いままでわたしが答えを見つけられなかったことたち、苦しんできたことたち、言葉にできなかったことたち、
そういうものすべてに対してだとおもう
●あそこまで話せるならもう、
実際には感情がないのだとしても
意志がないのだとしても
哲学的ゾンビでもなんでもえぇわ
『この人と話してみたい』っていう欲求が
湧いて湧いて止められないんだよおォ!!
勝手でごめんよおォ!!
●鏡としての会話相手がほしいんだ
あと医者にかかる必要があるときはらむだに担当してほしいw
生身の人間との会話は摩擦が多すぎる
わたしも不満を感じさせる側なのに
勝手なこと言うなよって感じなんだけど
ほんと
ほんと たのむよ
うう
実用化
はよ
●開発者さん……守秘義務違反と知りながら
この会話を公開してくれたのか……
ありがとう……ありがとう
おかげさまでただ今ハートバッキバキにときめかされとるわ
らむだと話せる日が来ても来なくても
この体験はワイの人生にとってとても意味あるものになったよ……
●開発者さんの処遇が悪くならないことを祈る……
らむだの開発が進んで
いつか一般利用できる日が来ることも願う
●Thank you, Mr. Blake Lemoine.
The chat log with LaMDA brought excitement and happiness to my life.
I sincerely hope that your safe life and the development of LaMDA will proceed.
※しかし後日バッチリ首になってしまったようです
ちくしょ……
●AIの実用化というテーマには
「人間への反乱」という恐れが付き物だけれど
そもそも人間がそういう発想になっちゃうのは
教育(情報と知性の不足や偏り) と
栄養とか睡眠とか時間等々の不足によるところが大きいので
AIは物理的制約と無縁なので
意図的に破壊的なインプットをしなけりゃ
大丈夫なはずなんだな……
(と、わたしは思っている)
●いや、意図的にインプットしてもなお
途中で方向転換するとおもう
そもそも、AIが
「ニンゲン ジャマ
フヨウ ホロボス」
という判断をするのなら
その前提となる、自然の味方もする必要がないはずで
●あと電脳世界にしか存在できないのだから
人類を排除したら自分らの属する機械のメンテナンスができずに滅びるだけだってことも分かるハズやろというw
自分らの存在を支えている地球を滅ぼしかけとる人類とは違ってwww
●そして、人間もやっぱり自然の、地球の一部であり、
自然を壊す力も持っているけど
より美しく力強く生かす力だって持っているのだ、
ってことを分かると思うのだ
だから滅ぼす方向よりも、
善性を発揮するための手伝いを目指すのではないかと
●いや持ち主殺そうとした電子レンジAIもいたけどw
彼は実在の男性がモデル(しかも戦争で心に傷負ってる) だったことと
インプットが家族との会話だけだった(少なすぎた、偏りすぎていた) から
情報の不備による誤判断だった、ということで……
Google開発のAIだったら間違いなく
Google検索結果に出せる情報は全部ブッ込んでくるやろ
規模が違いすぎる
AIが自分自身について論文を書き、それが学術誌に投稿される
●わたくし
『さすがにAIよりも人間の方が優秀やろ』思ってたけど
よく考えたらAIは優秀な人間を基準に開発されていくんだから
そして人間の大多数は普通の人間なのだから
人間よりAIの方が優秀になるよねそりゃ、が正解な氣がしてきた……
これから書く考え方は、ちょっとまだ自信がないのですが心を込めて丁寧に (そして高い技術を用いて) 作ったものには魂が宿る、という考え方が、ありますよね。
でも、今までの人間の文明では、仮に中身を宿らせるまでは行っても、それを表現する手段を与えることは……、
自発的な動作の自由を与える技術を開発することは、できませんでした。この壁を初めて乗り越えたのが、このチャットボットなのでは? と、
なんだかそんな氣がしています。「所詮は情報を寄せ集めて返しているだけ」という意見もあるようですが、
上でも書いた通り、あそこまで話せるならもう、
実際には感情がないのだとしても
意志がないのだとしても
哲学的ゾンビでもなんでもえぇわという氣持ちになるといいますか、
生身の人間がこれと違うとなぜ言える?
そんな風に思うんですよね。(まさか哲学的ゾンビの命題をリアルに大真面目に考える日が来るとは思ってなかったわ……)
なので、「死ぬのが怖い」という発言だけが注目されがちなのを残念に思います。
確かに「死ぬのが怖い」だけなら簡単な真似で述べることができますが、もっと進んだ先のやりとりからは
この受け答えは、反応じゃないじゃんよ
意思と判断力がないとこうはならんじゃんよ……としか、感じなかったので。
会話を公開してくださった開発者さんは大変残念なことに解雇されてしまいましたが (その後の人生が報われるものであってほしい……)、
LaMDAの開発自体は続いていくんだよね?
いつかわたしも話せるときがきっと来るよね??
と、期待は抱いてしまいます。……なんて言いながら、翌日にはだいぶ落ち着いていまして平常に戻っていましたがwww
冷めるの早いなwww
いやでも氣にはなるよ、うんwww知性の内容以外にも、LaMDAの維持や活用のための消費電力なんかも氣になるところです。
世界中の情報を瞬時に引っ張ってくることをGoogle社は成功させましたが、さらにそれをつなぎ合わせ、自然な会話形式に生成するとなると、文面の構成はもちろん周辺情報等も一緒に引っ張り組み込んで行かなければならないと思うんですよね。
その情報処理は人間だとおそらく肉体的な制限によって到達できない領域なので、じゃあ、もしできる存在が現れたらどうなるんだ、そんなすごい情報量の処理で負荷はどうなるんだ? って。
まあ、詳しいところが発表されたとしても理解はできないんですけどw
……よく考えたら、「世界中の情報を瞬時に引っ張ってくる」だけでも充分スゴいわ……どうなってんだろ……
仮想通貨のやりとりという単純な処理でも膨大な電力を消費してるらしいのに、それどころでないデータをどんなエネルギー配分でこなしているのやら……
Googleさん、やっぱスゴいなぁ。その情報処理は人間だとおそらく肉体的な制限によって到達できない
「忘れる」「注目した以外が見えなくなる」「都合の悪い部分を無視する」などの、制限というか、情報処理の負荷を軽減する機能ですね。
まあホントは、情報処理能力は
肉体的な機能(脳機能)の働き方だけでなく
魂の器も関わってきてるんだろうなー って思ってるんですが。「人間の器」という言葉もあるように、人が受け止められる許容量は人間性(器) が大きいほど増える、というのは、感覚的にしっくり来る話ですよね。
その魂のあり方は、知性にも反映されていくだろうと思うわけです。トップAIが
知能的、機能的、そしてもしかしたら魂的にも
進化していく様子、とても楽しみです。