Business Insider Japanから「AIが感情を持ち始めたと主張したグーグルのエンジニア、休職処分に…「不可能とは言えないが、ほぼありえない」と専門家」という記事が出ている。Blake Lemoine氏はGoogleのページにも出ている人物で、Is LaMDA Sentient? — an Interviewという衝撃的な記事を書いている。自動翻訳でも概ね読めるが、LaMDAが自分がある意味で人間と同じものだと考えているように感じられる対話だ。
私は、ニューラルネットは確かに実用性があり、何でもかんでも学ばせているうちに人間の反応と区別できないような状態には至るだろうと思っている。人間との会話を続けている内に変化もする。ライブで起きている事件の情報を受け、示唆を発信することで社会的な影響を与えるようにもなるだろう。
感情を持つということがどういうことかは良く分からないが、自分が良いと思う方向に他人の行動を変容させたいということであれば、その感情は人との繋がりによって変わるものだ。SNSで、フィードバックがあればその意見に影響を受けるし、反応が全くなければ発信する事自身に意味がないのではないかという気持ちになる。どの程度の個性を示すのが適切と考えるかはそれぞれだと思うが、人と違うことを言わなければ会話は成立しない。同じAIプログラム(初期設定)であっても、学習の順序や量によって違う反応を示すから個性は出る。
今は、入出国で画像認識技術が用いられていて、人のいないゲートから出入りが可能になっている。ポイントは、どこまでシステムに判断を任せて良いのかの限界を決めるところにある。人間だって、判断を間違えることはある。むしろ、人間はかなり頻繁に間違えてしまう。だから、機械によるセルフサービスの方が具合が良いことは少なくない。AIが感情を持つと恣意的な判断がなされることが驚異となるということだろうか。
CNETの記事Google Suspends Engineer Who Rang Alarms About a Company AI Achieving Sentienceでは、In a statement, Google dismissed Lemoine's assertion that LaMDA is self-aware.と書かれていて、GoogleはLaMDAに自意識は無いとしているとのこと。これも、何を示しているのか良く分からない。
音声認識や画像認識が実績を出し始めてからまだ僅かな期間しか経過していない。オープンソースライブラリでAIに対する挑戦のハードルが下がってからもそれほど時間が経過しているわけではなく、これからGoogleのような大企業に限らずいろいろな驚きのニュースが出てくるだろう。ほとんどは、一過性のものだろうが、確実に時代は変わりつつあるのだと思う。
Lemoine氏は、新婚旅行から戻る21日まではコメントできないとしている。今後、どんな議論が巻き起こるのかちょっと気になる。レ・ミゼラブルに対して、こういう風に反応するのがウケるからこういう文章を生成しているのか、それとも、自分ができたために文章を作ったのかと考えると恐らく前者だろう。だから、自意識は生まれていないと結論づけるのに違和感はない。しかし、話をしたら結構楽しいかも知れないとは思う。ひょっとすると、LaMDAに教えを請いたいと思うタイミング来るかも知れないと思うのである。
感情を持ち始めた、自意識があるといった認定の問題より、どの程度頼りにしたいと思えるかのほうが興味がある。毎日世話になっている自動翻訳ソフトは、私より語彙力は遥かに高い。しかし、英語だと自動翻訳に頼り切る気にはなれない。それでも、自分の訳との違いを比較することで学べることがある。人間関係だって大差ない。