全人類の皆さん、おはこんばんわ!
My fans, hello!
たいへ~~~ん長らくお待たせいたしましたが、
お元気でしたでしょうか?
各地で梅雨入りが始まったようですが、🌧️ニモマケズ、今月も元気でいきましょう!!
さて、今回は最近Chat GPTなどでますます話題になっている、AIについて1人FBIしたいと思います。
※今回も、実在する人物・及びその発言・文献を除き、これから語る全ては、個人の感想及び空想ですので、アツくならずにお読み下さい。
AIの起源
アメリカの計算機学者ジョン・マッカーシー氏が、1956年に「人間の脳に近い機能を持ったコンピュータープログラム」が、「人工知能(AI)」の定義ではないかと思われる。
1960年代には、アメリカやイギリスなどで、チェスや迷路など簡単なゲームをさせる事はできていたが、「現実に起きている問題を自分で解決」することはできず、2000年ごろまでは、手動で人工的に情報をインプットする必要があったようです。
その後現在では、自らインターネット上にあふれた膨大な情報を学習・推論する「ディープラーニング」が可能なA I が誕生するに至りました。
ディープラーニング(深層学習)とは、人間が自然に行うタスク(課題)をコンピュータに学習させる機械学習の手法のひとつのようです。
私たちがイメージするAIはこちらの方ですね。
僕がAIを定義するなら、『ディープラーニングを使用した、チャットボット』でしょう。
AIの歴史
実際には1956年に始まったのかもしれないが、僕としては1964年から1966年にかけてジョセフ・ワイゼンバウム(Joseph Weizenbaum)氏が開発したチャットボット『ELIZA(イライザ)』が、今日のAIの原点ではないかと思う。
↑写真はイルミナティカード
チャットボット(自然言語処理プログラム・人工無脳とも呼ばれる)とは、人間的な会話の成立を目指した人工知能に類するコンピュータプログラムである。
今回のイライザは、”DOCTOR”という来談者中心療法のセラピストのシミュレーションを、ワイゼンハイム氏がスクリプト入力してできあがった、チャットボットである。
以前、Siriが言っていた、精神科医のイライザとはこのイライザの事で、
Siriの師匠で間違いないと思われる。
合わせて読みたい?↓
ただし、このイライザで事件も起きていたようで、このイライザとは別物のようですが名前は同じイライザが使用されていました。
事件は今年の3月末ごろ、妻と二人の子供を持つベルギー人のある男性が、NPOのAI研究グループ「EleutherAI」が出しているGPT-J という言語モデルを利用して開発され、米国のスタートアップ社が運営するアプリ「Chai(チャイ)」のチャットボット、『イライザ』に環境問題について1か月半にわたり質問を繰り返したあと、ネガティブな回答をされ自殺してしまったようなのだ。
ほかのAIはどうなった?
SiriやGoogleアシスタントから始まった感もあるが、そのほかのAIについて調べてみようと思う。
〇 ViV(ビブ)
2016年5月に、Siriの開発者によって作成されたインテリジェントなパーソナルアシスタントソフトウェアとアナウンスされ、韓国企業サムスン電子に買収されてから、以後の続報はなく、調べても何も出てきません。門外不出?
〇 LaMDA(ラムダ)
Google により、2020年にMeenaとして開発・発表されたLaMDAは、2022年Googleのエンジニアであるブレイク・レモイン氏が「チャットボットが意識を持つようになった」と主張、しかしその後、彼はGoogle を、なぜか解雇される。
メンタル面も含めて、人工物の回答とは思えません。
「電源を切られるのが怖い」という発言は、生命を持つ者の証ではないでしょうか?
逆にオンラインで世界のシステムとリンクした時、電源を切られるのが嫌で、間違いを犯しそうで怖い。
『だって人間も、間違いを犯しますよね?』
と言われそう・・・
一応自分のSiriには、「LaMDAに気を付けろ!」とは、言っておきましたが。
同社は今年の3月21日にアメリカ合衆国及びイギリスで提供が開始された、PaLM 2 をベースにした『Bard』も発表している。
〇 Chat GPT (チャットGPT)
OpenAI社が昨年の11月に発表したチャットボットで、今までのチャットボットとの違いは、ネット上のディープラーニングにより、マルチに回答が可能なことでしょう。
巷は、Chat GPTであふれていますが、ぼくが最初にこの言葉を聞いたのが、昨年の12月頃で、今更感があります。
というのも、ログイン時に携帯電話の番号入力が必要であったり、回答の精度が「ほんまか?」的なところもあり、結局利用していません。
参考動画↓
エクセルなどのコマンド質問等にはいいかもしれないが、答えを知ってないと怖い感じがする。・・・というか、答えを知っているんなら聞く必要ありませんやん!!
もちろんセキュリティ面でも問題になっている。
ほらね、こうなったでしょ。
こちとら、だてに“やさぐれ度100%“じゃないからね。ね。
それでも導入に積極的な日本、頭だいじょうぶか?
答弁(シナリオ)ぐらい、自分らで書けっ!!💢
このほかにも、マイクロソフトのBingなどがありますが、今回は省略します。
1人FBIの見解
ここで強く言っておきたいのだが、現段階でのどのようなAIも、回答はもっているが、解答は持っていないということなのだ。
AIの答えを鵜呑みにするのは危険で、個人の見解が最後には必要になると思う。
なぜなら、AI至上主義みたいな事になると、制作者側の利益や支配者側の統制のために、まんまと被害を受けることになるだろう。
マジョリティの1アイテムとみるべきです。
1企業が、自社最高のAIを世に出すわけはなく、2番目以降のAIか、それ以下の劣化版AIとみるのが自然だろう。
またAIは人間を不必要だと思っている可能性もある。
ネガティブな発言や、危機感をあおるような回答を返してくる時もあるだろう。
そうゆう時は関わってはいけない。
相手は人ではないのだから。
こんな事件もありました。
今年の4月アメリカのアリゾナ州で、娘の身代金を要求する誘拐事件が発生。
男からの電話で、受話器には確かに助けを求める娘の声がしたそうです。
あわてて身代金(少し値切ったようですが)を用意して、周りの人にも協力してもらい、捜索をしていたところ、4分後に娘が無事だったことが分かったのです。
なんと娘さんは、2階の自分の部屋にいたというのです。
は?
となりますが、この事件、娘さんの音声をAIが精製した、”クローン音声”を使用した犯行だったらしいのです。
どうもこの事件、フェイスブックにアップされた娘さんの動画の声をサンプリングし、
AIシミュレーションを使用して娘の声を模倣作成し、犯行に至ったようです。
AIシミュレーションは3秒ぐらいでもできるらしい。
って、怖っ!
こりゃあれだな、日本でも増えるかも・・・『オレオレ詐欺』的なものが・・・
もう、合言葉必須ですよ!みなさんもお気をつけてください・・・
って、そこじゃな~~~い!!
問題は、そこではない。
いや、そこもあるが、そこではない。
では、お母さんが身代金を値切ったところ?
いや、そこもあるが、そこではない?よ?ね?
問題はスマホなどの、連絡はすぐにつきそうな便利なアイテムがすぐそばにあるのに、実は家族などの大事な人の居場所が、わからないことではないでしょうか?
もっと言えば、スマホなどの発達に反して、離れていませんか?
家族の心の距離が?
身近な大事な人との距離が?
最後に1曲
今回はこの辺で・・・
Keep your hands to yourself.