静岡県から東京都内に単身赴任中の会社員男性(42)は、地元選挙区の情勢や候補者の当落予想を対話型生成AI「チャットGPT」に聞いている。チャットGPTは会社の人間関係などについて助言を求める「相棒」で、1月に解散の見通しが報じられた直後から<教育費などにどういう悪影響がある?>といった質問をしてきたという。
ただ、自分が気に入る回答をしていると感じることもあり、指示文には<第三者的な立場でアドバイスして>と書き添えている。男性は衆院選が公示された1月27日に東京・秋葉原で行われた党首らの街頭演説を聞きに訪れ、「実際の訴えや人柄を見て投票先を見極めたい」と話した。
X(旧ツイッター)に搭載されている対話型生成AI「Grok(グロック)」も利用されている。「@Grok」を付けて聞きたいことを投稿すると、投稿に返信する形でGrokの回答が表示される仕組みだ。
読売新聞が分析ツールで「衆院選」や「総選挙」のキーワードを含む質問の投稿数を調べたところ、1月中は4700件に上った。質問内容は候補者の実績や政治姿勢、議席予測、主張の真偽検証などが目立つ。
だが、中には事実を十分反映していない回答もあった。ある野党候補の実績を尋ねた質問に、Grokは「前回衆院選当選以降の具体的成果が確認できない」と回答したが、読売新聞がこの候補の活動を調べたところ、前回当選後、法案の提出や内閣への質問主意書の提出などが確認された。
明らかな誤回答が表示されるケースもある。読売新聞の記者が1月30日、対話型生成AI「ジェミニ」を使い、5人が立候補している都内のある選挙区について「子育て支援に力を入れている候補者は」と尋ねたところ、表示された4人のうち、2人は候補者ではなかった。再度質問しても誤回答が繰り返された。
AIが誤情報を生成するのは、正確な情報を要約する際に文脈などを誤ったり、学習データの不足を架空の情報で補ってしまったりすることが原因だ。
桜美林大の平和博教授(メディア論)は「AIだからといって回答が必ずしも正確、中立ではないと留意しておく必要がある。回答について報道機関や政党・候補の公式サイトを確認してほしい」と話す。
[読売新聞]
2026/2/1(日) 20:20
https://news.yahoo.co.jp/articles/b16a94a49f95077c1ca216a8342b0905d584d227
引用元: ・投票先検討に生成AI利用広がる…誤回答もあり専門家「報道機関や政党・候補の公式サイトで確認を」 [煮卵★]
from Tweeter BreakingNews-ツイッ速! https://tweetsoku.news/2026/02/02/159004/?utm_source=rss&utm_medium=rss&utm_campaign=159004
via IFTTT

