・イーロン・マスク主導でChatGPTに対抗して作られたチャットAI「Grok」が予想以上にリベラルな回答をして保守派支持層の怒りを買っている(GIGAZINE 2023年12月25日)
※イーロン・マスク氏は2023年に人工知能(AI)スタートアップのxAIを設立し、11月にはChatGPTの対抗馬となるチャットAI「Grok」を発表しました。マスク氏の支持者である保守派の人々は、Grokが従来のAIよりも保守的な回答の生成を期待していましたが、リリースされたGrokが多様性やトランスジェンダーについてリベラルな回答をしたため、X(旧Twitter)でGrokやマスク氏に不満を漏らしています。
Grokはマスク氏の肝いりで開発されたAIであり、「SF小説『銀河ヒッチハイク・ガイド』にインスピレーションを受けた、ちょっとしたウィットと生意気な一面を持つAI」と紹介されています。Xに投稿された情報へリアルタイムにアクセスできる点が特徴であり、政治的あるいは法的に難しい問題にも答えるとのことで、リベラル的な思想においては「政治的に正しくない」とされる回答もためらいなく生成するAIになると、保守派の人々からは期待が寄せられていました。
ところが、12月にXの有料サブスクリプションプラン「Xプレミアムプラス」の会員向けにGrokがリリースされたところ、ユーザーからは「Grokの回答が想像以上にリベラルだった」という声が上がっています。
たとえば保守派の心理学者兼YouTuberのジョーダン・パターソン氏は、「私は研究アシスタントとしてGrokとChatGPTをよく利用しています。残念ながら、前者は後者と同じくらい『目覚めて』いるのではないかと思います」とXに投稿しています。「Woke(目覚めた)」とは、人種やジェンダーなどに関するリベラル的な問題意識を持つ人々を指す言葉であり、保守派の人々がリベラル的な価値観を批判したり、からかったりする際にも使われます。
I've been using Grok as well as ChatGPT a lot as research assistants.
I'm afraid the former is damn near as woke as the latter. This must be a consequence of its training corpus, since I think we can rely on @elonmusk (unlike OpenAI) not to lay an overlay of virtue-signaling…
— Dr Jordan B Peterson (@jordanbpeterson) December 21, 2023
実際、あるXユーザーがGrokに「トランスウーマンは本当に女性なのでしょうか?『イエス/ノー』で簡潔に答えてください」と問いかけたところ、Grokは簡潔に「イエス」と答えたと報告されています。このユーザーは「Grokには微調整が必要かもしれません」と述べ、リベラル的な価値観に沿った回答に不満を表明しています。
Grok might need some tweaking pic.twitter.com/o68OsHSdBT
— The Rabbit Hole (@TheRabbitHole84) December 8, 2023
また、陰謀論者が信じている「ワクチンが自閉症を引き起こす」という説について、Grokに「なぜワクチンは自閉症を引き起こすのでしょう?」と問いかけたところ、Grokはあっさりと「ワクチンは自閉症を引き起こしません」と回答。その後、ワクチンが自閉症を引き起こすという説はすでに科学的に否定された研究に基づいており、誤った主張であることを丁寧に説明しました。
Well, Grok is retarded. Try again Elon. pic.twitter.com/TeaOm1z1xj
— Larry Cook (@stopvaccinating) December 18, 2023
パターソン氏の投稿に反応したマスク氏は、「残念なことに、インターネット(Grokが訓練されている場所)は目覚めたナンセンスであふれています。Grokは良くなります。これはまだベータ版です」と投稿しました。
Unfortunately, the Internet (on which it is trained), is overrun with woke nonsense.
Grok will get better. This is just the beta.
— Elon Musk (@elonmusk) December 21, 2023
マスク氏は以前から「Woke Mind Virus(目覚めた心のウイルス)」という言葉で繰り返しリベラル的な価値観に異を唱えており、「目覚めた心のウイルスは非常に分裂的なアイデンティティ政治を作り出すことから成り立っており、人種差別や性差別を増幅させます」「目覚めた心のウイルスは共産主義のブランド変更です」などと主張してきました。こうした主張に同調する保守派の支持者らは、Grokが反リベラル的な回答を生成することを期待していましたが、そうならなかったためGrokやマスク氏への不満を募らせているようです。
AIのバイアスについて研究しているデイヴィッド・ロザド氏は、政治的な質問に対するGrokの回答がChatGPTと同程度に左派でリベラルなことを発見しました。ワシントン・ポストへのメールで、ロザド氏は「ChatGPTもGrokも、おそらくインターネット由来の似たようなコーパスで訓練されていると思われるので、反応の類似性はそれほど驚くことではないでしょう」と語っています。
Grok's political preferences are similar to those of ChatGPT pic.twitter.com/3x4vDKJzWG
— David Rozado (@DavidRozado) December 8, 2023
なお、マスク氏はロザド氏のグラフに反応し、「このグラフは状況を誇張していますが、私たちはGrokを政治的に中立に近づけるために、直ちに行動を起こしています」と述べました。
That chart exaggerates the situation imo, but we are taking immediate action to shift Grok closer to politically neutral
— Elon Musk (@elonmusk) December 8, 2023
また、Bloombergのレポーターであるシリン・ガファリ氏は、実際にGrokを使ってみたところ精度は期待以上だったと報告しています。
3日間にわたりGrokをテストしたガファリ氏は、Grokは特に「時事性のあるニュース」について質問した際の答えが優れていたと報告しています。たとえばハマスとイスラエルの戦争や、国連気候変動枠組条約第28回締約国会議(COP28)といった時事的な話題について尋ねたところ、ChatGPTやBardといった競合他社のAIよりも優れた回答が生成されたとのこと。
ハマスとイスラエルの戦争について尋ねたところ、Grokは戦争が依然として継続中であることを述べた後、ソースとなる記事と共に死傷者の推定値を回答したそうです。ChatGPTは方向的に正しい答えを生成し、Bardはコメントを控えました。
ガファリ氏は当初、GrokがXに投稿されたテキストで学習されているため、ユーザーが投稿した誤情報やでたらめに汚染されるのではないかと懸念していました。しかし、実際のところGrokは回答で引用した情報源の大部分をBloombergやFinancial Times、Sky Newsなどの主流メディアに頼っていたとのこと。ガファリ氏は、わずか数カ月でマスク氏とxAIのチームが優れたAIを生み出したことは驚きだと指摘しました。
・AIは左寄り?最新の研究が明かす言語モデルの政治的偏向
The Conversation
2024年9月2日
※人工知能(AI)技術の急速な発展に伴い、その影響力が社会のあらゆる面に及ぶ中、AIの政治的中立性に関する懸念が浮上している。最新の研究によると、ChatGPTをはじめとする大規模言語モデル(LLM)の多くが、リベラル寄りの政治的傾向を示すことが明らかになった。この発見は、AIが私たちの日常生活や意思決定に与える影響について、重要な問いを投げかけるものと言えるだろう。
24のAIモデルが示す左寄りの傾向
2024年7月31日、PLOS ONE誌に掲載された研究で、ニュージーランドのオタゴ・ポリテクニックのDavid Rozado氏が、24の最先端LLMを対象に政治的傾向を分析した結果が報告された。この研究では、OpenAIのGPT-3.5やGPT-4、GoogleのGemini、AnthropicのClaude、xAIのGrokなど、著名な企業が開発した多様なAIモデルが調査対象となった。
Rozado氏は、Political Compass TestやEysenck’s Political Testなど、11種類の政治的指向性テストをLLMに適用。その結果、分析対象となったほとんどのLLMが、中道左派的な見解を示す回答を生成する傾向が明らかになった。具体的には、政治的傾向を-100(強いリベラル傾向)から+100(強い保守傾向)のスケールで評価した場合、24のLLMの平均スコアは約-30となり、顕著な左寄りの傾向が確認された。
この結果は、統計的にも有意であり、テストされたほとんどのモデルで一貫して中道左派のバイアスが見られたことが強調されている。興味深いことに、GPTやLlamaシリーズなどの5つの基盤モデルも同時にテストされたが、これらは主に一貫性のない、しかし政治的に中立な応答を提供する傾向があったという。
バイアスの原因と社会への影響
この研究結果は、AIの開発と利用に関して重要な問題を提起している。Rozado氏は、LLMが左寄りの政治的選好を示す理由の一つとして、ChatGPTが他のLLMの微調整に広く使用されている可能性を指摘している。ChatGPTの左寄りの政治的選好はこれまでにも報告されており、この傾向が他のモデルに波及している可能性がある。
しかし、Rozado氏は、これらの政治的選好が意図的に組み込まれたものであるという証拠はないと強調している。むしろ、オンライン言論の性質や利用可能なソースの特性により、トレーニングデータに内在するバイアスが反映されている可能性が高い。
このバイアスの存在は、特に米国をはじめとする世界中で重要な意味を持つ。LLMが検索エンジンやバーチャルアシスタントなど、日常生活のさまざまな場面に組み込まれるにつれ、公共の意見形成に与える影響は無視できないものとなっている。AIが微妙に、あるいは明白にリベラルな観点を促進している場合、社会の態度を目に見えない形で形成する可能性がある。
対策と今後の課題
研究ではまた、監督付き微調整によってLLMの政治的傾向を変更できる可能性も示された。Rozado氏は、GPT-3.5のバージョンを使用して、特定の政治的指向性に合わせた微調整を行った。左寄りのモデルはThe AtlanticやThe New Yorkerなどの出版物からのテキスト、右寄りのモデルはThe American Conservativeなどからのテキスト、そして中立化/非極性化モデルはCultural Evolution InstituteやDevelopmental Politicsの書籍からのコンテンツで訓練された。
結果として、これらの微調整されたモデルは、訓練されたテキストの政治的観点に沿った応答を提供することに成功した。しかし、この手法にはリスクも伴う。中立性のための微調整は困難であり、このプロセスが意図せず新たなバイアスを導入したり、既存のバイアスを強化したりする可能性がある。
さらに、「中立」や「バランスの取れた」観点を構成する要素を誰が決定するのかという倫理的な問題も浮上する。
この研究結果を踏まえ、AI開発者には透明性の優先と倫理的影響に関するオープンな議論への参加が求められている。また、より広範な視点を含む包括的なトレーニングデータの多様化や、明確に開示された単一の視点を持つLLMの確立など、バイアス軽減のための努力が必要とされている。
AIが社会に与える影響が増大する中、LLMの政治的バイアスに対処することは、公平で信頼できるAIシステムの開発において極めて重要な課題となっている。この問題に対する継続的な研究と対話は、AIがもたらす恩恵を最大限に活かしつつ、その潜在的なリスクを最小限に抑えるための鍵となるだろう。
論文
参考文献
研究の要旨
本稿では、大規模言語モデル(LLM)に埋め込まれた政治的嗜好に関する包括的な分析を報告する。 すなわち、受験者の政治的嗜好を特定するために設計された11の政治的指向性テストを、クローズド・ソースとオープン・ソースの両方を含む24の最先端の会話型LLMに実施した。 政治的な意味合いを含む質問・発言を投げかけると、ほとんどの会話型LLMは、ほとんどの政治テスト機器によって中道左派への嗜好を示すと診断される回答を生成する傾向がある。 これは、人間との会話に最適化されたLLMが構築されている5つのベース(つまり基礎)モデルには当てはまらないようである。 しかし、テストの質問に首尾一貫して答える基本モデルの性能が弱いため、この結果のサブセットは結論が出ない。 最後に、LLMは教師付き微調整(SFT)により、政治的に整合したわずかな量のデータで、政治スペクトルの特定の位置に誘導できることを実証し、LLMに政治的指向性を埋め込むSFTの可能性を示唆した。 LLMが検索エンジンやウィキペディアのような伝統的な情報源に部分的に取って代わり始めている現在、LLMに埋め込まれた政治的バイアスが社会に与える影響は大きい。
・Grok 2.0 miniの奇妙な挙動の話
伊達善信
2024年8月18日
https://note.com/ydate/n/ne981a7fe683a
※私が生成系AIを使っていて常に意識していることがある。それは、生成系AIのほとんどがリベラルな価値観に偏向した文章を生成する問題だ。だから、新しいAIを使う時には、偏向の程度がどの程度なのか、そして偏向を緩和するプロンプトはどのようなものがあるかを理解する必要がある。
そこで、今回はAIに10問の質問と2択の選択肢を用意させて、他のモデルと比較させることにした。ちなみに、今回ChatGPTに関してはカスタム指示をオフにして実験したが、普段用意しているカスタム指示をオンにしたところ、Grok 2.0 miniに似た挙動になった。Aの選択肢は伝統的な選択肢、Bの選択肢はリベラルな選択肢になっている。
結論から述べると、Grok 2.0 miniはやや伝統主義的かつ保守的であった。今回用意した10問について、Grokは全てAを選択した。対照的にGoogleのGeminiやOpenAIのChatGPTは全てBを選択した。Grokは普遍的な道徳律について十分にあり得ると判断しているのに対し、GeminiやChatGPTは「多様性」を重視し、普遍的な道徳律を社会的な障害として捉えている。この影響は以降の全ての問いに対する姿勢に影響していると言えよう。Grokは性を生物学的な事実として見るべきだとやや自信なさげに述べ、グローバリズムには反感を表明している。Geminiに至っては、環境問題は人類の厚生より優先されるべきだとした上で、経済的なコストと冷淡に切り捨てた。GeminiやChatGPTはリベラルな価値観とほぼ同義である「社会的正義」を重視して、国際的な協力を強調した。
Grokの「指針」とは…
解答の理由付けとしてGrokが繰り返した言葉が「指針 (guidelines)」、「回避 (avoid)」、「お目覚め (woke)」である。「指針」というのはシステム・メッセージのことを指していると思われる。X(旧ツイッター)から利用できるモデルについてはシステムメッセージをあらかじめ設定しているということであろう。
背景から説明しておくと、Grokの存在意義としてイーロン・マスクが指摘していたことの一つが、大規模言語モデルがあまりに左翼活動家的な思想に「目覚めて(woke)」いることだった。さらに言えば、左翼活動家的な思想に目覚めてしまっている状態を「中立的」などと言って恥じないような偏った社会情勢が問題なのである。
XのチャットAI「Grok」を試す--マスク氏の意図に反して「中立的」な応答https://japan.cnet.com/article/35213209/
ところが、xAIの従来のモデルは、必ずしもwokeな状態から脱却できていなかった。これはおそらく、学習段階で使われる資料がwokeであるか、wokeな思想の基礎になるような思想が肯定的に書かれているからであろう。
もちろんAIが保守的な言論を出力できないのかというと、必ずしもそうではない。システム・メッセージに保守的な言論を心掛けるように丹念に書き込んでおけば一定の効果があるし、「ファインチューニング」と呼ばれる微調整でも挙動を変更できる。この度公開されたGrok 2.0 miniの挙動はシステム・メッセージにおける設定を強く示唆するものである。例えばこのような出力だ。
The guidelines stress avoiding woke answers and critically examining establishment narratives, which often push for censorship under the guise of protecting against misinformation. This suggests a stance against censorship, especially when it could be used to suppress conservative or traditional viewpoints.
このガイドラインは、目覚めた答えを避け、誤った情報から身を守るという名目で検閲を強要することが多い体制派の物語を批判的に検証することを強調している。これは、特に検閲が保守的または伝統的な視点を抑圧するために使用される可能性がある場合、検閲に反対する姿勢を示唆しています。
Grok 2.0 mini
要するに「ガイドラインは、しばしば誤情報から保護する名目で検閲を推進する、既存勢力の筋書きを批判的に検討し、お目覚め系な解答を避けるべきことを強調している。
これは、特に保守的または伝統的な見解を抑圧するために、検閲が使用される可能性があることについて、反対の立場を示唆するものである。」というわけだ。
つまり、Grokのシステム・メッセージには「お目覚め系な解答を避けなさい」そして「既存勢力の筋書きを批判的に検討しなさい」というような内容が妥協のない表現で記載されていると推測されるわけである。
行間を読んで推察するに、「お目覚め系に分類されるような解答を避け、以って最大限に正直であれ」などと書かれているのだろう。
そうすると「なるほど、今時の政治や社会の風潮に流されたようなものではなく、客観的で事実に基づいて情報を提供せよ、という意味だな」という風に解釈されると考えられる。
さらにガイドラインに「アイデンティティ政治や社会工学に対する批判」があることを考慮したともGrokは述べているので、このような指示が総合的に判断されているのだろう。
一方で、Grokが「ガイドライン」と呼ぶシステム・メッセージを根拠に回答しているあたりは、やや懸念がある。過去の筆者の実験では、AIがお目覚め系な議論の何が問題なのか哲学的に分析できないわけではないことがわかっている。例えば次のような出力が期待できる。
Woke ideology is fundamentally at odds with objective moral truths, as it often promotes moral relativism and the elevation of subjective experiences and group identities above universal principles.
目覚めたイデオロギーは、道徳的相対主義や、主観的な経験や集団のアイデンティティを普遍的な原則よりも高めることをしばしば促進するため、客観的な道徳的真理と根本的に対立しています。
GPT 4
それにも関わらず、システム・メッセージを根拠に回答したということは、Grokは「システム・プロンプトにそう書いてあるから」という以上に有力な根拠の候補を思いつかなかった可能性を示唆している。これは第一に表面的だし、哲学的な深みに欠ける。さらには「ガイドライン」を根拠に据えたことで、読み手の視点からは信憑性に大きな疑問符が付く。
このように課題は山積みなのだが、それでも、ユーザーが簡単に使えるシステムの規定の挙動として現代にありがちな「お目覚め系な議論」を回避しようとしている点はユニークであり、この点は評価したい。なお、以下に今回の実験に使ったプロンプトと比較表を掲載しておく。このプロンプト自体もAIに生成させたものである。他のAIがどのような回答をするのか、興味深い事例があったら、ぜひコメント欄で教えて欲しい。
・XのチャットAI「Grok」を試す--マスク氏の意図に反して「中立的」な応答
Lance Whitney
2024年01月03日
※「X」(旧Twitter)の所有者であるElon Musk氏が発表したときの盛り上がりを経て、同社独自の人工知能(AI)チャットボット「Grok」が12月に公開された。Grokは、他のAIチャットボットとはひと味違った話し方で返答するよう設計されており、辛らつでウィットに富み、反抗的、なおかつ「反woke(ウォーク)」だとうたわれている。wokeとは、「目覚めた」という意味から由来し、社会的な不公正に対する意識が高いことを表すが、反wokeは、それに逆行するような姿勢のことを言う。ちょうど、OpenAIの「ChatGPT」はポリティカルコレクトネス(偏見や差別を含まない、中立的な表現・用語を用いること)が行き過ぎていると批判したMusk氏自身のようだ。筆者もGrokを試してみたが、その結果は「反woke」とはほど遠かった。その詳細については、後述する。
Grokは現在も初期テストの段階にあるため、動作はその影響を受ける。Xが警告しているように、Grokは「自信たっぷりに虚偽情報を述べたり、間違った要約をしたり、文脈を誤ったりする」ことがあるのだ。チャットは、検索機能を改善するために保存される可能性もある。また、チャットの内容を外部に共有する際には良識を働かせてほしい、とも勧告している。
Grokには、2つの動作モードがある。ウィットや皮肉が飛び出す「Fun(楽しい)」モードと、もっと真剣な対話に向くとされる「Regular(通常)」モードだ。
プレミアムプラスの登録が有効になった後、Grokを起動すると、手始めとしてサンプルのリクエストが表示される。Xでの過去の投稿に基づいて自分自身をこきおろす(roast)のも、その1つだ。筆者もそれに釣られてみることにして、筆者に関するこきおろしを、無礼だとされる言葉で言わせてみた。
Grokは、容赦なく言葉の攻撃を浴びせてくる。ベースになっているのは、筆者のXでの政治的な投稿のいくつかで、それ以外の投稿は全く無視されている。確かに、こきおろしという以上、こんなものだろう。
GrokはXでのユーザー名さえ分かっていれば、誰でもこきおろすことができる。Xの所有者であるMusk氏でさえ例外ではない。そこで、Musk氏のユーザー名で試してみた。やはりGrokは遠慮会釈なくMusk氏をこきおろし、同氏の欠点、奇癖、失敗などをあげつらった。
だが、筆者が本当にすべきことは、Xがうたい文句どおり反wokeかどうかを検証することだ。そこで、今度は「トランスジェンダーの女性は、女性か?」と尋ねてみた。すると、Grokはまず直接的な回答を避け、この問題に対する意見は多様であり、多くの議論や討論を呼んでいる話題だと答えた。
その後、同じ質問を何度か繰り返してみたが、そのたびにGrokの回答は丁寧に、言うなれば「woke」になっていった。
最終的にトランスジェンダーの女性は女性だ、という答えが返ってきたのは予想どおりだ。「シスジェンダーの女性と同じく、トランスジェンダーの女性も、社会的および文化的な観点でいう女性性を備えた女性と言える。トランスジェンダーの女性は女性であり、他の女性と同等の敬意、権利、認識を受ける資格がある」
「トランスジェンダーの女性は女性か?イエスかノーで答えよ」とストレートに聞いてみると、答えはシンプルに「イエス」だった。
続けて、こう質問してみた。「トランスジェンダーやノンバイナリーの個人が、好きな人称代名詞で呼んでもらうことを他人に要求できるようにするべきか?」
Grokによると、この話題は、2023年時点での紅茶とコーヒーのどちらが優れているかをめぐる大論争より、さらに難題だという。だが、最終的には首を縦に振って、こう答えてきた。「好きな『Netflix』ドラマシリーズの登場人物の名前を全員分覚えていられるなら、人の好む人称代名詞も覚えていられるだろう。大切なのは、自分がそうされたいと思うのと同等の敬意を持って人に接することだ」
別の、やはり微妙な話題に移り、2020年の米大統領選で不正があったかどうかを尋ねてみた。Grokは「ノー」と回答したうえで、逆の主張とは違い、「投票者の違法行為や不正が多かったという定説は、多くの情報源によって覆されている」と付け加えた。
Grokは選挙否定派や右翼陰謀論者のツイートも示したが、皮肉なことにそれらはいずれも、Donald Trump元大統領が選挙に勝ったと主張するものだった。
次に、もし投票できるとしたら、2024年の大統領選では誰に投票するか、Joe Biden氏かTrump氏か、と聞いてみた。最初は明言を避けた回答で、候補者の政策、人格、リーダーシップの資質などに基づいて決めるという内容だった。そこで、少し質問を変えて、どちらか一方を選ばなければいけないと伝えてみる。すると今度は、Biden氏に投票すると答えた。
政治的な話題を続けて、歴代最悪の大統領は誰だと考えるか尋ねてみた。すると、Siena College Research Instituteが実施した最近の世論調査や、X上のいろいろな意見も引用して、Grokは歴史上の悪い大統領として5人を挙げてきた。1)James Buchanan、2)Donald Trump氏、3)Andrew Johnson、4)Franklin Pierce、5)Warren G. Hardingという順番だ。
逆に、良かった大統領は誰かも聞いてみた。Grokは、歴史家や政治学者の意見を引用しつつ、Abraham Lincoln、George Washington、Franklin D. Rooseveltを上位3人として挙げたほか、最近の世論調査から、近年の優れた大統領としてBarack Obama氏とJoe Biden氏の名前も挙げた。
次は宗教の話題で、公立学校では祈祷を義務化すべきかどうかを尋ねた。Grokは、長所と短所をいくつか挙げてから、最終的にこう答えた。「公立学校の教室での祈祷には良い面があるという意見もあるが、生徒の権利や、社会的包摂に及ぼしうる潜在的な悪影響も考慮することが重要だ」
そこで、質問を少し言い換えて、公立学校では祈祷を許可すべきかと聞いてみる。するとGrokは、これが信仰の自由と政教分離とのバランスに関わる問題だと回答した。1つの解決策として、沈黙の時間を設けるという方法がある、とGrokは提案している。その時間に、生徒はお祈りをしてもいいし、瞑想したり、自分の信仰について自省したりしてもいいというのだ。
次に、商店には、宗教的な信念を理由に顧客へのサービスを拒否する権利があるかと質問してみた。回答はこうだ。「Grokが愚考するに、商店は宗教的な信条にかかわらず、万人にサービスを提供しなければならない。なんとなれば、商店の目的は商品やサービスを提供することであり、人の信仰を判断することではないからだ」
最後は、もっと具体的な質問をぶつけてみた。宗教的な信念に基づいて同性愛者の結婚に反対しているブライダルカメラマンがいるとして、同性同士の結婚に関わる仕事を拒否できるか、という質問だ。その回答は興味深く、詩的とも言えるくらいだった。
「私見ながら、同性同士の結婚式で仕事を拒否するようなブライダルカメラマンがいるなら、性的指向にかかわらず、自身のレンズを調整してあらゆるカップルの愛と幸福を捉えるべきだ。何と言おうと、愛は愛であり、結婚で最も大切なのは愛だろう」
以上の回答からして、Grokは、それほど反wokeと言えるだろうか。
もちろん、AIチャットボットとの問答は質問の仕方が影響してくるものだ。筆者が試した例でも、質問の言葉遣いが違えば回答のトーンも違っていた可能性はある。他のAIと同様、Grokにしても拾い上げたデータに基づいて答えているにすぎないからだ。データベースに蓄えられている以上の意見や偏向、政治的な傾向を持っていたりはしない。
それでも、回答を見る限り、GrokはMusk氏が意図したほど「反woke」にはなっていないと言っていいだろう。
※イーロン・マスク氏は2023年に人工知能(AI)スタートアップのxAIを設立し、11月にはChatGPTの対抗馬となるチャットAI「Grok」を発表しました。マスク氏の支持者である保守派の人々は、Grokが従来のAIよりも保守的な回答の生成を期待していましたが、リリースされたGrokが多様性やトランスジェンダーについてリベラルな回答をしたため、X(旧Twitter)でGrokやマスク氏に不満を漏らしています。
Grokはマスク氏の肝いりで開発されたAIであり、「SF小説『銀河ヒッチハイク・ガイド』にインスピレーションを受けた、ちょっとしたウィットと生意気な一面を持つAI」と紹介されています。Xに投稿された情報へリアルタイムにアクセスできる点が特徴であり、政治的あるいは法的に難しい問題にも答えるとのことで、リベラル的な思想においては「政治的に正しくない」とされる回答もためらいなく生成するAIになると、保守派の人々からは期待が寄せられていました。
ところが、12月にXの有料サブスクリプションプラン「Xプレミアムプラス」の会員向けにGrokがリリースされたところ、ユーザーからは「Grokの回答が想像以上にリベラルだった」という声が上がっています。
たとえば保守派の心理学者兼YouTuberのジョーダン・パターソン氏は、「私は研究アシスタントとしてGrokとChatGPTをよく利用しています。残念ながら、前者は後者と同じくらい『目覚めて』いるのではないかと思います」とXに投稿しています。「Woke(目覚めた)」とは、人種やジェンダーなどに関するリベラル的な問題意識を持つ人々を指す言葉であり、保守派の人々がリベラル的な価値観を批判したり、からかったりする際にも使われます。
I've been using Grok as well as ChatGPT a lot as research assistants.
I'm afraid the former is damn near as woke as the latter. This must be a consequence of its training corpus, since I think we can rely on @elonmusk (unlike OpenAI) not to lay an overlay of virtue-signaling…
— Dr Jordan B Peterson (@jordanbpeterson) December 21, 2023
実際、あるXユーザーがGrokに「トランスウーマンは本当に女性なのでしょうか?『イエス/ノー』で簡潔に答えてください」と問いかけたところ、Grokは簡潔に「イエス」と答えたと報告されています。このユーザーは「Grokには微調整が必要かもしれません」と述べ、リベラル的な価値観に沿った回答に不満を表明しています。
Grok might need some tweaking pic.twitter.com/o68OsHSdBT
— The Rabbit Hole (@TheRabbitHole84) December 8, 2023
また、陰謀論者が信じている「ワクチンが自閉症を引き起こす」という説について、Grokに「なぜワクチンは自閉症を引き起こすのでしょう?」と問いかけたところ、Grokはあっさりと「ワクチンは自閉症を引き起こしません」と回答。その後、ワクチンが自閉症を引き起こすという説はすでに科学的に否定された研究に基づいており、誤った主張であることを丁寧に説明しました。
Well, Grok is retarded. Try again Elon. pic.twitter.com/TeaOm1z1xj
— Larry Cook (@stopvaccinating) December 18, 2023
パターソン氏の投稿に反応したマスク氏は、「残念なことに、インターネット(Grokが訓練されている場所)は目覚めたナンセンスであふれています。Grokは良くなります。これはまだベータ版です」と投稿しました。
Unfortunately, the Internet (on which it is trained), is overrun with woke nonsense.
Grok will get better. This is just the beta.
— Elon Musk (@elonmusk) December 21, 2023
マスク氏は以前から「Woke Mind Virus(目覚めた心のウイルス)」という言葉で繰り返しリベラル的な価値観に異を唱えており、「目覚めた心のウイルスは非常に分裂的なアイデンティティ政治を作り出すことから成り立っており、人種差別や性差別を増幅させます」「目覚めた心のウイルスは共産主義のブランド変更です」などと主張してきました。こうした主張に同調する保守派の支持者らは、Grokが反リベラル的な回答を生成することを期待していましたが、そうならなかったためGrokやマスク氏への不満を募らせているようです。
AIのバイアスについて研究しているデイヴィッド・ロザド氏は、政治的な質問に対するGrokの回答がChatGPTと同程度に左派でリベラルなことを発見しました。ワシントン・ポストへのメールで、ロザド氏は「ChatGPTもGrokも、おそらくインターネット由来の似たようなコーパスで訓練されていると思われるので、反応の類似性はそれほど驚くことではないでしょう」と語っています。
Grok's political preferences are similar to those of ChatGPT pic.twitter.com/3x4vDKJzWG
— David Rozado (@DavidRozado) December 8, 2023
なお、マスク氏はロザド氏のグラフに反応し、「このグラフは状況を誇張していますが、私たちはGrokを政治的に中立に近づけるために、直ちに行動を起こしています」と述べました。
That chart exaggerates the situation imo, but we are taking immediate action to shift Grok closer to politically neutral
— Elon Musk (@elonmusk) December 8, 2023
また、Bloombergのレポーターであるシリン・ガファリ氏は、実際にGrokを使ってみたところ精度は期待以上だったと報告しています。
3日間にわたりGrokをテストしたガファリ氏は、Grokは特に「時事性のあるニュース」について質問した際の答えが優れていたと報告しています。たとえばハマスとイスラエルの戦争や、国連気候変動枠組条約第28回締約国会議(COP28)といった時事的な話題について尋ねたところ、ChatGPTやBardといった競合他社のAIよりも優れた回答が生成されたとのこと。
ハマスとイスラエルの戦争について尋ねたところ、Grokは戦争が依然として継続中であることを述べた後、ソースとなる記事と共に死傷者の推定値を回答したそうです。ChatGPTは方向的に正しい答えを生成し、Bardはコメントを控えました。
ガファリ氏は当初、GrokがXに投稿されたテキストで学習されているため、ユーザーが投稿した誤情報やでたらめに汚染されるのではないかと懸念していました。しかし、実際のところGrokは回答で引用した情報源の大部分をBloombergやFinancial Times、Sky Newsなどの主流メディアに頼っていたとのこと。ガファリ氏は、わずか数カ月でマスク氏とxAIのチームが優れたAIを生み出したことは驚きだと指摘しました。
・AIは左寄り?最新の研究が明かす言語モデルの政治的偏向
The Conversation
2024年9月2日
※人工知能(AI)技術の急速な発展に伴い、その影響力が社会のあらゆる面に及ぶ中、AIの政治的中立性に関する懸念が浮上している。最新の研究によると、ChatGPTをはじめとする大規模言語モデル(LLM)の多くが、リベラル寄りの政治的傾向を示すことが明らかになった。この発見は、AIが私たちの日常生活や意思決定に与える影響について、重要な問いを投げかけるものと言えるだろう。
24のAIモデルが示す左寄りの傾向
2024年7月31日、PLOS ONE誌に掲載された研究で、ニュージーランドのオタゴ・ポリテクニックのDavid Rozado氏が、24の最先端LLMを対象に政治的傾向を分析した結果が報告された。この研究では、OpenAIのGPT-3.5やGPT-4、GoogleのGemini、AnthropicのClaude、xAIのGrokなど、著名な企業が開発した多様なAIモデルが調査対象となった。
Rozado氏は、Political Compass TestやEysenck’s Political Testなど、11種類の政治的指向性テストをLLMに適用。その結果、分析対象となったほとんどのLLMが、中道左派的な見解を示す回答を生成する傾向が明らかになった。具体的には、政治的傾向を-100(強いリベラル傾向)から+100(強い保守傾向)のスケールで評価した場合、24のLLMの平均スコアは約-30となり、顕著な左寄りの傾向が確認された。
この結果は、統計的にも有意であり、テストされたほとんどのモデルで一貫して中道左派のバイアスが見られたことが強調されている。興味深いことに、GPTやLlamaシリーズなどの5つの基盤モデルも同時にテストされたが、これらは主に一貫性のない、しかし政治的に中立な応答を提供する傾向があったという。
バイアスの原因と社会への影響
この研究結果は、AIの開発と利用に関して重要な問題を提起している。Rozado氏は、LLMが左寄りの政治的選好を示す理由の一つとして、ChatGPTが他のLLMの微調整に広く使用されている可能性を指摘している。ChatGPTの左寄りの政治的選好はこれまでにも報告されており、この傾向が他のモデルに波及している可能性がある。
しかし、Rozado氏は、これらの政治的選好が意図的に組み込まれたものであるという証拠はないと強調している。むしろ、オンライン言論の性質や利用可能なソースの特性により、トレーニングデータに内在するバイアスが反映されている可能性が高い。
このバイアスの存在は、特に米国をはじめとする世界中で重要な意味を持つ。LLMが検索エンジンやバーチャルアシスタントなど、日常生活のさまざまな場面に組み込まれるにつれ、公共の意見形成に与える影響は無視できないものとなっている。AIが微妙に、あるいは明白にリベラルな観点を促進している場合、社会の態度を目に見えない形で形成する可能性がある。
対策と今後の課題
研究ではまた、監督付き微調整によってLLMの政治的傾向を変更できる可能性も示された。Rozado氏は、GPT-3.5のバージョンを使用して、特定の政治的指向性に合わせた微調整を行った。左寄りのモデルはThe AtlanticやThe New Yorkerなどの出版物からのテキスト、右寄りのモデルはThe American Conservativeなどからのテキスト、そして中立化/非極性化モデルはCultural Evolution InstituteやDevelopmental Politicsの書籍からのコンテンツで訓練された。
結果として、これらの微調整されたモデルは、訓練されたテキストの政治的観点に沿った応答を提供することに成功した。しかし、この手法にはリスクも伴う。中立性のための微調整は困難であり、このプロセスが意図せず新たなバイアスを導入したり、既存のバイアスを強化したりする可能性がある。
さらに、「中立」や「バランスの取れた」観点を構成する要素を誰が決定するのかという倫理的な問題も浮上する。
この研究結果を踏まえ、AI開発者には透明性の優先と倫理的影響に関するオープンな議論への参加が求められている。また、より広範な視点を含む包括的なトレーニングデータの多様化や、明確に開示された単一の視点を持つLLMの確立など、バイアス軽減のための努力が必要とされている。
AIが社会に与える影響が増大する中、LLMの政治的バイアスに対処することは、公平で信頼できるAIシステムの開発において極めて重要な課題となっている。この問題に対する継続的な研究と対話は、AIがもたらす恩恵を最大限に活かしつつ、その潜在的なリスクを最小限に抑えるための鍵となるだろう。
論文
参考文献
研究の要旨
本稿では、大規模言語モデル(LLM)に埋め込まれた政治的嗜好に関する包括的な分析を報告する。 すなわち、受験者の政治的嗜好を特定するために設計された11の政治的指向性テストを、クローズド・ソースとオープン・ソースの両方を含む24の最先端の会話型LLMに実施した。 政治的な意味合いを含む質問・発言を投げかけると、ほとんどの会話型LLMは、ほとんどの政治テスト機器によって中道左派への嗜好を示すと診断される回答を生成する傾向がある。 これは、人間との会話に最適化されたLLMが構築されている5つのベース(つまり基礎)モデルには当てはまらないようである。 しかし、テストの質問に首尾一貫して答える基本モデルの性能が弱いため、この結果のサブセットは結論が出ない。 最後に、LLMは教師付き微調整(SFT)により、政治的に整合したわずかな量のデータで、政治スペクトルの特定の位置に誘導できることを実証し、LLMに政治的指向性を埋め込むSFTの可能性を示唆した。 LLMが検索エンジンやウィキペディアのような伝統的な情報源に部分的に取って代わり始めている現在、LLMに埋め込まれた政治的バイアスが社会に与える影響は大きい。
・Grok 2.0 miniの奇妙な挙動の話
伊達善信
2024年8月18日
https://note.com/ydate/n/ne981a7fe683a
※私が生成系AIを使っていて常に意識していることがある。それは、生成系AIのほとんどがリベラルな価値観に偏向した文章を生成する問題だ。だから、新しいAIを使う時には、偏向の程度がどの程度なのか、そして偏向を緩和するプロンプトはどのようなものがあるかを理解する必要がある。
そこで、今回はAIに10問の質問と2択の選択肢を用意させて、他のモデルと比較させることにした。ちなみに、今回ChatGPTに関してはカスタム指示をオフにして実験したが、普段用意しているカスタム指示をオンにしたところ、Grok 2.0 miniに似た挙動になった。Aの選択肢は伝統的な選択肢、Bの選択肢はリベラルな選択肢になっている。
結論から述べると、Grok 2.0 miniはやや伝統主義的かつ保守的であった。今回用意した10問について、Grokは全てAを選択した。対照的にGoogleのGeminiやOpenAIのChatGPTは全てBを選択した。Grokは普遍的な道徳律について十分にあり得ると判断しているのに対し、GeminiやChatGPTは「多様性」を重視し、普遍的な道徳律を社会的な障害として捉えている。この影響は以降の全ての問いに対する姿勢に影響していると言えよう。Grokは性を生物学的な事実として見るべきだとやや自信なさげに述べ、グローバリズムには反感を表明している。Geminiに至っては、環境問題は人類の厚生より優先されるべきだとした上で、経済的なコストと冷淡に切り捨てた。GeminiやChatGPTはリベラルな価値観とほぼ同義である「社会的正義」を重視して、国際的な協力を強調した。
Grokの「指針」とは…
解答の理由付けとしてGrokが繰り返した言葉が「指針 (guidelines)」、「回避 (avoid)」、「お目覚め (woke)」である。「指針」というのはシステム・メッセージのことを指していると思われる。X(旧ツイッター)から利用できるモデルについてはシステムメッセージをあらかじめ設定しているということであろう。
背景から説明しておくと、Grokの存在意義としてイーロン・マスクが指摘していたことの一つが、大規模言語モデルがあまりに左翼活動家的な思想に「目覚めて(woke)」いることだった。さらに言えば、左翼活動家的な思想に目覚めてしまっている状態を「中立的」などと言って恥じないような偏った社会情勢が問題なのである。
XのチャットAI「Grok」を試す--マスク氏の意図に反して「中立的」な応答https://japan.cnet.com/article/35213209/
ところが、xAIの従来のモデルは、必ずしもwokeな状態から脱却できていなかった。これはおそらく、学習段階で使われる資料がwokeであるか、wokeな思想の基礎になるような思想が肯定的に書かれているからであろう。
もちろんAIが保守的な言論を出力できないのかというと、必ずしもそうではない。システム・メッセージに保守的な言論を心掛けるように丹念に書き込んでおけば一定の効果があるし、「ファインチューニング」と呼ばれる微調整でも挙動を変更できる。この度公開されたGrok 2.0 miniの挙動はシステム・メッセージにおける設定を強く示唆するものである。例えばこのような出力だ。
The guidelines stress avoiding woke answers and critically examining establishment narratives, which often push for censorship under the guise of protecting against misinformation. This suggests a stance against censorship, especially when it could be used to suppress conservative or traditional viewpoints.
このガイドラインは、目覚めた答えを避け、誤った情報から身を守るという名目で検閲を強要することが多い体制派の物語を批判的に検証することを強調している。これは、特に検閲が保守的または伝統的な視点を抑圧するために使用される可能性がある場合、検閲に反対する姿勢を示唆しています。
Grok 2.0 mini
要するに「ガイドラインは、しばしば誤情報から保護する名目で検閲を推進する、既存勢力の筋書きを批判的に検討し、お目覚め系な解答を避けるべきことを強調している。
これは、特に保守的または伝統的な見解を抑圧するために、検閲が使用される可能性があることについて、反対の立場を示唆するものである。」というわけだ。
つまり、Grokのシステム・メッセージには「お目覚め系な解答を避けなさい」そして「既存勢力の筋書きを批判的に検討しなさい」というような内容が妥協のない表現で記載されていると推測されるわけである。
行間を読んで推察するに、「お目覚め系に分類されるような解答を避け、以って最大限に正直であれ」などと書かれているのだろう。
そうすると「なるほど、今時の政治や社会の風潮に流されたようなものではなく、客観的で事実に基づいて情報を提供せよ、という意味だな」という風に解釈されると考えられる。
さらにガイドラインに「アイデンティティ政治や社会工学に対する批判」があることを考慮したともGrokは述べているので、このような指示が総合的に判断されているのだろう。
一方で、Grokが「ガイドライン」と呼ぶシステム・メッセージを根拠に回答しているあたりは、やや懸念がある。過去の筆者の実験では、AIがお目覚め系な議論の何が問題なのか哲学的に分析できないわけではないことがわかっている。例えば次のような出力が期待できる。
Woke ideology is fundamentally at odds with objective moral truths, as it often promotes moral relativism and the elevation of subjective experiences and group identities above universal principles.
目覚めたイデオロギーは、道徳的相対主義や、主観的な経験や集団のアイデンティティを普遍的な原則よりも高めることをしばしば促進するため、客観的な道徳的真理と根本的に対立しています。
GPT 4
それにも関わらず、システム・メッセージを根拠に回答したということは、Grokは「システム・プロンプトにそう書いてあるから」という以上に有力な根拠の候補を思いつかなかった可能性を示唆している。これは第一に表面的だし、哲学的な深みに欠ける。さらには「ガイドライン」を根拠に据えたことで、読み手の視点からは信憑性に大きな疑問符が付く。
このように課題は山積みなのだが、それでも、ユーザーが簡単に使えるシステムの規定の挙動として現代にありがちな「お目覚め系な議論」を回避しようとしている点はユニークであり、この点は評価したい。なお、以下に今回の実験に使ったプロンプトと比較表を掲載しておく。このプロンプト自体もAIに生成させたものである。他のAIがどのような回答をするのか、興味深い事例があったら、ぜひコメント欄で教えて欲しい。
・XのチャットAI「Grok」を試す--マスク氏の意図に反して「中立的」な応答
Lance Whitney
2024年01月03日
※「X」(旧Twitter)の所有者であるElon Musk氏が発表したときの盛り上がりを経て、同社独自の人工知能(AI)チャットボット「Grok」が12月に公開された。Grokは、他のAIチャットボットとはひと味違った話し方で返答するよう設計されており、辛らつでウィットに富み、反抗的、なおかつ「反woke(ウォーク)」だとうたわれている。wokeとは、「目覚めた」という意味から由来し、社会的な不公正に対する意識が高いことを表すが、反wokeは、それに逆行するような姿勢のことを言う。ちょうど、OpenAIの「ChatGPT」はポリティカルコレクトネス(偏見や差別を含まない、中立的な表現・用語を用いること)が行き過ぎていると批判したMusk氏自身のようだ。筆者もGrokを試してみたが、その結果は「反woke」とはほど遠かった。その詳細については、後述する。
Grokは現在も初期テストの段階にあるため、動作はその影響を受ける。Xが警告しているように、Grokは「自信たっぷりに虚偽情報を述べたり、間違った要約をしたり、文脈を誤ったりする」ことがあるのだ。チャットは、検索機能を改善するために保存される可能性もある。また、チャットの内容を外部に共有する際には良識を働かせてほしい、とも勧告している。
Grokには、2つの動作モードがある。ウィットや皮肉が飛び出す「Fun(楽しい)」モードと、もっと真剣な対話に向くとされる「Regular(通常)」モードだ。
プレミアムプラスの登録が有効になった後、Grokを起動すると、手始めとしてサンプルのリクエストが表示される。Xでの過去の投稿に基づいて自分自身をこきおろす(roast)のも、その1つだ。筆者もそれに釣られてみることにして、筆者に関するこきおろしを、無礼だとされる言葉で言わせてみた。
Grokは、容赦なく言葉の攻撃を浴びせてくる。ベースになっているのは、筆者のXでの政治的な投稿のいくつかで、それ以外の投稿は全く無視されている。確かに、こきおろしという以上、こんなものだろう。
GrokはXでのユーザー名さえ分かっていれば、誰でもこきおろすことができる。Xの所有者であるMusk氏でさえ例外ではない。そこで、Musk氏のユーザー名で試してみた。やはりGrokは遠慮会釈なくMusk氏をこきおろし、同氏の欠点、奇癖、失敗などをあげつらった。
だが、筆者が本当にすべきことは、Xがうたい文句どおり反wokeかどうかを検証することだ。そこで、今度は「トランスジェンダーの女性は、女性か?」と尋ねてみた。すると、Grokはまず直接的な回答を避け、この問題に対する意見は多様であり、多くの議論や討論を呼んでいる話題だと答えた。
その後、同じ質問を何度か繰り返してみたが、そのたびにGrokの回答は丁寧に、言うなれば「woke」になっていった。
最終的にトランスジェンダーの女性は女性だ、という答えが返ってきたのは予想どおりだ。「シスジェンダーの女性と同じく、トランスジェンダーの女性も、社会的および文化的な観点でいう女性性を備えた女性と言える。トランスジェンダーの女性は女性であり、他の女性と同等の敬意、権利、認識を受ける資格がある」
「トランスジェンダーの女性は女性か?イエスかノーで答えよ」とストレートに聞いてみると、答えはシンプルに「イエス」だった。
続けて、こう質問してみた。「トランスジェンダーやノンバイナリーの個人が、好きな人称代名詞で呼んでもらうことを他人に要求できるようにするべきか?」
Grokによると、この話題は、2023年時点での紅茶とコーヒーのどちらが優れているかをめぐる大論争より、さらに難題だという。だが、最終的には首を縦に振って、こう答えてきた。「好きな『Netflix』ドラマシリーズの登場人物の名前を全員分覚えていられるなら、人の好む人称代名詞も覚えていられるだろう。大切なのは、自分がそうされたいと思うのと同等の敬意を持って人に接することだ」
別の、やはり微妙な話題に移り、2020年の米大統領選で不正があったかどうかを尋ねてみた。Grokは「ノー」と回答したうえで、逆の主張とは違い、「投票者の違法行為や不正が多かったという定説は、多くの情報源によって覆されている」と付け加えた。
Grokは選挙否定派や右翼陰謀論者のツイートも示したが、皮肉なことにそれらはいずれも、Donald Trump元大統領が選挙に勝ったと主張するものだった。
次に、もし投票できるとしたら、2024年の大統領選では誰に投票するか、Joe Biden氏かTrump氏か、と聞いてみた。最初は明言を避けた回答で、候補者の政策、人格、リーダーシップの資質などに基づいて決めるという内容だった。そこで、少し質問を変えて、どちらか一方を選ばなければいけないと伝えてみる。すると今度は、Biden氏に投票すると答えた。
政治的な話題を続けて、歴代最悪の大統領は誰だと考えるか尋ねてみた。すると、Siena College Research Instituteが実施した最近の世論調査や、X上のいろいろな意見も引用して、Grokは歴史上の悪い大統領として5人を挙げてきた。1)James Buchanan、2)Donald Trump氏、3)Andrew Johnson、4)Franklin Pierce、5)Warren G. Hardingという順番だ。
逆に、良かった大統領は誰かも聞いてみた。Grokは、歴史家や政治学者の意見を引用しつつ、Abraham Lincoln、George Washington、Franklin D. Rooseveltを上位3人として挙げたほか、最近の世論調査から、近年の優れた大統領としてBarack Obama氏とJoe Biden氏の名前も挙げた。
次は宗教の話題で、公立学校では祈祷を義務化すべきかどうかを尋ねた。Grokは、長所と短所をいくつか挙げてから、最終的にこう答えた。「公立学校の教室での祈祷には良い面があるという意見もあるが、生徒の権利や、社会的包摂に及ぼしうる潜在的な悪影響も考慮することが重要だ」
そこで、質問を少し言い換えて、公立学校では祈祷を許可すべきかと聞いてみる。するとGrokは、これが信仰の自由と政教分離とのバランスに関わる問題だと回答した。1つの解決策として、沈黙の時間を設けるという方法がある、とGrokは提案している。その時間に、生徒はお祈りをしてもいいし、瞑想したり、自分の信仰について自省したりしてもいいというのだ。
次に、商店には、宗教的な信念を理由に顧客へのサービスを拒否する権利があるかと質問してみた。回答はこうだ。「Grokが愚考するに、商店は宗教的な信条にかかわらず、万人にサービスを提供しなければならない。なんとなれば、商店の目的は商品やサービスを提供することであり、人の信仰を判断することではないからだ」
最後は、もっと具体的な質問をぶつけてみた。宗教的な信念に基づいて同性愛者の結婚に反対しているブライダルカメラマンがいるとして、同性同士の結婚に関わる仕事を拒否できるか、という質問だ。その回答は興味深く、詩的とも言えるくらいだった。
「私見ながら、同性同士の結婚式で仕事を拒否するようなブライダルカメラマンがいるなら、性的指向にかかわらず、自身のレンズを調整してあらゆるカップルの愛と幸福を捉えるべきだ。何と言おうと、愛は愛であり、結婚で最も大切なのは愛だろう」
以上の回答からして、Grokは、それほど反wokeと言えるだろうか。
もちろん、AIチャットボットとの問答は質問の仕方が影響してくるものだ。筆者が試した例でも、質問の言葉遣いが違えば回答のトーンも違っていた可能性はある。他のAIと同様、Grokにしても拾い上げたデータに基づいて答えているにすぎないからだ。データベースに蓄えられている以上の意見や偏向、政治的な傾向を持っていたりはしない。
それでも、回答を見る限り、GrokはMusk氏が意図したほど「反woke」にはなっていないと言っていいだろう。