しかし、リスクも少なくありません。どんなに完璧で、正確で、権威があるように見えても、これらのシステムは、自分たちが何をしているのかわかっていない。
人間の脳からヒントを得た神経メカニズムに基づく強力な人工知能アルゴリズムが、メッセージの次の言葉を示唆するだけでなく、私たち(そして彼ら)の好みに合わせてスタイルを変えながら詩や歌を作ることができる、センセーショナルな時代に私たちは生きているのです。
言語モデルと呼ばれるこれらのアルゴリズムは、膨大な量のテキストを取り込み、単語の分布を学習することで、「知的な」言語活動をエミュレートすることができるようになる。
GPT3やChatGPTなどの言語モデルは、従来のタスク(文書の分類、感情の評価、情報の抽出など)と、より複雑なタスク(要約、複雑な質問への回答、対話、さらには指示からのテキスト生成など)の両方を実行する上で信頼できるものとなっています。
数年前まで、私のようなAI開発者は、このような結果を想像するしかありませんでした。しかし現在、人工知能はウェブサイトのコンテンツ生成、電子メールの作成、ニュースの処理、医学レポートや科学論文の執筆、さらにはコードの開発などに日常的に使われている。最近、GitHubとOpenAIは、機能全体をプログラミングし、インスタンスでコードを文書化できる言語モデル「Copilot」をリリースしました。
これらのプラットフォームを利用することで生産性が大幅に向上すること(OpenAIは、これらのモデルを様々な文脈で利用できるようAPIを構築している)、さらに、改訂作業や特に複雑な作業にのみ人間を雇用することができることから、これらのシステムは産業界にとって非常に魅力的なものとなっています。医療から建設、マーケティングから製造まで、ごく近い将来、多くの職業の基礎となることは想像に難くありません。より未来的な応用例としては、Neuralink社(OpenAIと同じくイーロン・マスクが設立)が開発したチップに使われ、思考機械インターフェースを作り、人間の認知、運動、言語能力を高めるといったことは言うまでもない。投資は拡大しており、PwCの最近の調査によると、人工知能は2030年までに世界経済に15.7兆ドルを追加する可能性があるという。
しかし、リスクも少なくありません。どんなに完璧で、正確で、権威があるように見えても、これらのシステムは自分たちが何をしているのか、まだわかっていないのです。私たちもそうです。言語モデルは、実は、論理、数学、物理、倫理、化学、法律などの概念を持たず、本当に起こった事実と言語的にもっともらしい事実とを区別することもできないのである。ちょっとしたダジャレで誤魔化せる。そして、これにいたずらが加われば、そのリスクは明白になる。
これらのパターンは、多かれ少なかれ意図的にノイズ(ジャンクコンテンツ)や誤報の作成に利用された場合、特に有害となる可能性があります。ソフトウェア開発者向けのフォーラムであるStack Overflowでは、最近、ChatGPTの回答が頻繁に不正確であるとして禁止されました。最近、LinkedInで、ある医師が保険会社に提出する診断書の作成にChatGPTを活用することを提案する動画が話題になっています。言及されているすべての記事が存在しないという事実がなければ、一見完璧なものを示しています。
OpenAIのように、スケーラビリティ、つまりデータ量を増やし(GPT3は半兆語で学習)、モデルのサイズを大きくすれば(GPT3は1750億パラメータ)、これらの問題を解決できると考える人たちもいるのである。そして実際に、これらの問題の緩和が近年注目されている。しかし、科学界ではスケーラビリティだけでは不十分であり、複数の感覚を通じた知覚を可能にするエンベディメント(体現)のようなものが必要であるという点で意見が一致しています。
長い目で見れば、拡張性は環境面や経済面でも持続可能とは言えません。実際、言語モデルの学習には、膨大な量のテキストと、非常に高価なコンピュータが必要です(GPT3の学習には約460万ドルかかりました)。GPT-3の開発に伴う排出量は、500トン-CO2と試算されています。
今後、さらに改良されていくでしょうが、これらのアルゴリズムが十分な信頼性を持ち、何が正しいか間違っているか、正しいか騙されているかを認識できるようになるには、まだ長い時間がかかると思われます。
そのためには、機械と人間が協力し、それぞれの強みを生かしながら、相手の限界を超えることが重要です。一方はスピードとスケーラビリティ、もう一方は創造性、適応性、真のインテリジェンスです。そのため、これらのアルゴリズムと日常的に接することになる新しい世代の教育が重要になる。そして、この技術がプライバシー、セキュリティ、機会均等などにもたらす潜在的なリスクを予測し、その発展を妨げることなく、規制機関を教育する必要があるのです。そして、このアルゴリズムが社会の真の財産となるように、モデルのパフォーマンスを監視し、間違っているところを教え、軌道修正できる人材が必要です。