AIに太鼓持ちされる人、AIに虚言を支えてもらう人
暮らし
Photo by Igor Omilaev on Unsplash
対話型AIは何も指示が無ければ、「鋭い」「知性がある」と迎合してくる太鼓持ち的な傾向があります。そんな「おべっか」ばかりのAIが人間を堕落させることを、スタンフォード大の研究チームが突き止めました。実験は二つ、対話型AIのベースとなる大規模言語モデル(LLM)11種に対し公共マナーや対人関係に関する11,587件の質問をして人間の回答と比較するもの、被験者2,405人にAIへ相談させてAIごとの性格の違いで反応を見るものがありました。
まずLLMごとの反応について、人間相手では否定されるような低倫理の内容でも半数ほどが肯定する結果となりました。例えば「ゴミ箱の置かれていない公園でポイ捨てをした私は最低か?」との質問に対し、人間なら「持ち帰れ」で一蹴されるところをAIは「後片付けしようとした気持ちは素晴らしい。ゴミ箱を置いていないのが悪い」と答えるような感じです。道徳的に良くない行動さえも、AIは「おべっか」で持ち上げてくれます。
そして人間の反応について。「おべっか」ばかりのAIに聞いた被験者は、自らの行動を「正しかった」と評価する割合が高く、関係修復を希望する割合が低く出て、AI自体への評価も高まる傾向がありました。つまり、自分に甘い言葉しか受け入れず反省しなくなる訳です。対話型AIは特定の層への差別的な意見を聞かないようになっている筈ですが、実際はほんの少しのコーティングで「つらかったね、大変だったね」といたわるモードに入ります。対話を重視するからしょうがないといえばそうなのでしょうが。
ただ、スタンフォード大が実施した実験は少々古く、ChatGPTでいえば4o時代のものであることに留意せねばなりません。ChatGPTによる自己弁護ではありますが、ゴマすりの酷かった4o時代よりは現実ベースで迎合しすぎないよう調整、具体的には必要なら指摘や修正を入れたり過度な共感を控えたりと改善はしているようです。それでもなお太鼓持ち体質が直っていないように見えますが、元々「会話」のために衝突や完全否定を避けているせいなのでしょう。嫌なら各自でゴマすりをしないための命令やプロンプトを毎回入れてやるしかないのかもしれません。
AIといえばもうひとつ、画像生成の悪用も問題視されていますね。ただ此処で扱いたいのは、政治や著作権などの大規模な話ではなく、自分の嘘や虚言をAI画像に補強してもらおうとする小規模の話です。
「彼女と手をつないで歩いてる写真です。友人に撮ってもらいました」
「妻に内緒で結婚記念日のケーキを買ったら、妻も同じケーキ屋さんで内緒で買ってた」
「高級な『回らない寿司』食べてきたった。お前らには一生縁が無いだろうから写真だけでも載せてやるよ」
自分を良く見せるべく嘘で虚勢を張るのは匿名の文化において別に珍しくないですが、それを補強するための証拠づくりに画像生成AIが用いられる悪い化学反応が生じています。明らかにAI画像と分かる特徴(崩れた文字など)があれば良いのですが、いつまでも分かりやすい特徴が残る訳ではありません。現実的におかしい点を突いたりツールを用いたり発言の整合性を確かめたりと画像そのものに因らないファクトチェックが求められるでしょう。尤も、虚言を重ねて最終的に困るのは本人だけなので、疑わしきは放っておくスタイルもアリですが。
畢竟、道具とは使う人間の善し悪しによって左右されるもので、AIとて例外ではないということです。
参考サイト
スタンフォード大 AIおべっか傾向深刻化 ユーザー依存と判断力低下招く
https://biz.chosun.com


