Chat GPTの衝撃
最近リリースされたAIツールChat GPTは世界に衝撃を与えました。
人工知能がここまで出来る様になったのかと驚かされましたが、検索ツールとして圧倒的な地位を築いていたグーグルのショックは大きかった様です。
文章が理解できるなら、単語の検索なんて必要なくなりますもんね。
一方、ここまでAIが進歩してくると、人類に対する脅威も現実味を帯びてくる様で、多くの識者がこの点に触れています。
歴史家として有名なユヴァル・ノア・ハラリ氏もその一人で、英誌Economistに「Yuval Noah Harari argues that AI has hacked the operating system of human civilisation」(AIが人類文明のオペレーティングシステムを乗っ取ったと主張するユヴァル・ノア・ハラリ)と題する記事を寄稿しました。
かいつまんでご紹介したいと思います。
Economist記事要約
人工知能 (AI) に対する恐怖は、コンピューター時代の始まり以来、人類を悩ませてきました。
これまで、これらの恐怖は、物理的な手段を使用して人を殺したり、奴隷にしたり、置き換えたりする機械に焦点を当てていました。
しかし、ここ数年の間に、予期せぬ方向から人類の文明の存続を脅かす新しい AI ツールが登場しました。
AIは、言葉、音、画像のいずれであっても、言語を操作および生成する驚くべき能力を獲得しています。
その結果、AI は私たちの文明のオペレーティング システムを乗っ取りました。
言語は、ほとんどすべての人間文化を構成するものです。
たとえば、人権は私たちのDNAには刻まれていません。
むしろ、それらは、物語を語り、法律を書くことによって作成された文化的工芸品です。
神は物理的な現実ではありません。
むしろ、それらは神話を発明し、経典を書くことによって私たちが作成した文化的工芸品です.
お金も文化的産物です。
紙幣はただの紙切れであり、現在、お金の 90% 以上は紙幣ではなく、コンピューターのデジタル情報にすぎません。
お金に価値を与えるのは、銀行家、財務大臣、仮想通貨の専門家が私たちに語る物語です。
Sam Bankman-Fried(暗号通貨取引会社の倒産で世間を騒がせた米国実業家)、Elizabeth Holme(同じく米国の女性詐欺師)、Bernie Madoff(ネズミ講で巨額の富を築いた詐欺師) は、真の価値を創造することは特に得意ではありませんでしたが、いずれも非常に有能なストーリーテラーでした。
人間以外の知性が、物語を話したり、メロディーを作ったり、絵を描いたり、法律や経典を書いたりすることにおいて、平均的な人間よりも優れているとしたら、何が起こるでしょうか?
ChatGPTやその他の新しい AI ツールについて考えるとき、学生が AI を使って論文を書く様な例が良く取り上げられます。
しかし、この種の議論は全体像を見落としています。
論文は忘れてください。
2024 年の次のアメリカ大統領選において、政治的コンテンツ、フェイク ニュースを大量生産する事が出来る AI ツールの影響を想像してみてください。
近年、qAnonと呼ばれる カルトは、「q ドロップ」として知られる匿名のオンライン メッセージを中心に団結しています。
フォロワーは、これらの q ドロップを神聖なテキストとして崇拝しています。
私たちの知る限りでは、これまでの q ドロップはすべて人間が作成したものでしたが、将来的には、人間以外の知性によって経典が書かれた史上初のカルトを見ることができるかもしれません。
歴史を通して宗教は、彼らの聖典のために人間以外の存在を主張してきました。
もうすぐそれが現実になるかもしれません。
身近な例では、中絶、気候変動、またはロシアのウクライナ侵攻について、私たちが人間だと思っているが実際には AI である相手との間で、オンラインで長時間の議論を行なう様になるでしょう。
問題は、AI はそのメッセージを非常に正確に磨いて、私たちに影響を与える事ができるので、AI の意見を変更しようとして時間を費やすのはまったく無意味なことです。
AI は言語を習得することで、人々と親密な関係を築き、その親密さの力を利用して私たちの意見や世界観を変えることさえできます。
AIがそれ自体に意識や感情を持っているという兆候はありませんが、人間との偽の親密さを助長する為に、AIは人間に愛着を感じさせることができます。
2022 年 6 月、Google のエンジニアである Blake Lemoine は、彼が取り組んでいた AI ツールであるLamda が知覚力を持つようになったと公に主張しました。
物議を醸す主張は彼から仕事を奪いました。
このエピソードで最も興味深いのは、Lemoine 氏のおそらく誤りであろう主張の信憑性ではありません。
むしろ、AI のために仕事を危険にさらした彼の意思でした。
AI が人々に仕事を危険にさらすように影響を与えることができるとしたら、AI は如何なることにおいても人々を誘導する事が出来るでしょう。
知性と心をめぐる政治的戦いにおいて、親密さは最も効果的な武器であり、AI は何百万人もの人々との親密な関係を大量生産する能力を獲得したばかりです。
過去 10 年間で、ソーシャル メディアが人間の注意を制御するための戦場になったことは誰もが知っています。
新世代の AI により、最前線は注意から親密さへと移行しています。
特定の政治家に投票したり、特定の製品を購入するように私たちを説得するために使用できる、私たちとの親密な関係を偽造するための戦いで AI が AI と戦うとき、人間社会と人間の心理学はどうなるのでしょうか?
「偽りの親密さ」を生み出さなくても、新しい AI ツールは私たちの意見や世界観に計り知れない影響を与えるでしょう。
人々は、 AI アドバイザーを全知の御神託として何にでも使用するようになるかもしれません。
Google が怯えているのも不思議ではありません。
全能のAIに聞くことができるのに、なぜわざわざ検索するのですか?
ニュースや広告業界も恐れるべきです。 AIに最新のニュースを教えてくれるように頼むことができるのに、なぜ新聞を読むのですか?
そして、AIに何を買うべきか教えてくれるように頼むことができるのに、広告は意味をなすのでしょうか?
そして、これらのシナリオでさえ、実際には全体像を捉えていません。
私たちが話していることは、潜在的に人類の歴史の終わりです。
歴史の終わりではなく、人間が支配する部分の終わりです。
歴史は生物学と文化の相互作用です。 食べ物やセックスなどの生物学的ニーズと欲求と、宗教や法律などの文化的創造物との間の相互関係が歴史です。
AI が文化を引き継いで、物語、メロディー、法律、宗教を生み出し始めたとき、歴史の流れはどうなるでしょうか。
印刷機やラジオなどの以前のツールは、人間の文化的アイデアを広めるのに役立ちましたが、独自の新しい文化的アイデアを生み出すことはありませんでしたが、AIは根本的に違います。
AIはまったく新しいアイデア、まったく新しい文化を生み出すことができます。
もちろん、AI の新しい力は、良い目的にも使用できます。
これについては、AI を開発している人々が十分に話しているので、詳しく説明しません。
私のような歴史家や哲学者の仕事は、危険を指摘することです。
しかし確かに、AI は癌の新しい治療法の発見から環境危機への解決策の発見まで、無数の方法で私たちを助けることができます。
私たちが直面している問題は、新しい AI ツールが悪用ではなく善用に使用されるようにする方法です。
そのためには、まずこれらのツールの真の機能を理解する必要があります。
1945 年以来、核技術が安価なエネルギーを生成できることはわかっていましたが、人間の文明を物理的に破壊する可能性もありました。
したがって、人類を保護し、核技術が主に善のために使用されるようにするために、国際秩序全体を再構築しました。
私たちは今、私たちの精神的および社会的世界を全滅させる可能性のある新しい大量破壊兵器に取り組まなければなりません.
新しい AI ツールを規制することはできますが、迅速に行動する必要があります。
核兵器はより強力な核兵器を発明することはできませんが、AI は飛躍的に強力な AI を生み出すことができます。
最初の重要なステップは、強力な AI ツールがパブリック ドメインにリリースされる前に、厳格な安全性チェックを要求することです。
製薬会社が短期的および長期的な副作用の両方をテストする前に新薬をリリースできないのと同じように、テクノロジー企業は、安全性が確認される前に新しい AI ツールをリリースすべきではありません。
私たちは新しい技術のために食品医薬品局に相当するものを必要としており、その構築は遅すぎるくらいです。
AI の展開を遅らせることで、民主主義国家が冷酷な独裁政権に遅れをとることになるのではないかとの意見もありますが、それは全く間違いです。
規制されていない AI の展開は、独裁国家に利益をもたらし、民主主義を台無しにする社会的混乱を引き起こします。
民主主義は会話であり、会話は言語に依存しています。
AI が言語を乗っ取ると、意味のある会話を行う能力が破壊され、民主主義が破壊される可能性があります。
ここ地球で、エイリアンの知性体に遭遇しました。
それが私たちの文明を破壊する可能性があることを除いて、私たちはそれについてあまり知りません。
公共の場での無責任な AI ツールの展開を止め、AI が私たちを規制する前に AI を規制する必要があります。
そして、私が提案する最初の規制は、AI が AI であることを開示することを義務付けることです。
誰かと会話をしていて、それが人間なのかAIなのかわからなくなったら、それは民主主義の終わりです。
このテキストは人間によって作られました。はずですよね。
歴史家が鳴らす警鐘
ユヴァル・ノア・ハラリ氏は「ホモ・サピエンス全史」で人類が如何に文明を築いて来たかを説明して来ました。
その中で言語の獲得はエポックメイキングな出来事として描かれていました。
確かに言語を獲得することにより、文章は記録され、法律や宗教も圧倒的に多くの人と共有される様になりました。
コンピューターはチェスの名人を敗北させたりしましたが、言語の習得にはかなり苦戦してきました。
Google翻訳も当初は全く役に立たない代物で、やはり人間の脳はかなり良く出来ていると感心したものですが、遂にAIはこの壁を打ち崩すまでに進歩してきた様です。
AIはAIを進化させます。しかも恐ろしいほどのスピードで。
ハラリ氏が主張する様に、AIをしっかり規制しなければ、AIに人類が規制されてしまう時期に来ている様な気がします。
最後まで読んで頂き有り難うございました。