X、Grokによる違法画像(児〇性的虐〇素材含む)作成に警告 アカウント凍結や法的措置も
臼田勤哉2026年1月6日 12:10
Xは、Grokによる違法コンテンツ作成について注意喚起を行なっている。特に、児童性的虐待素材(CSAM)が含まれる投稿に対して、投稿の削除だけでなく、アカウントの永久凍結などを含む対応を行なうほか、行政や法執行機関と協力するなどの措置をとるとしている。
X Corp. Japan
@XcorpJP
Xでは、違法コンテンツ(児童性的虐待素材(CSAM)を含む)が含まれる投稿に対して、投稿の削除、アカウントの永久凍結などを含む対応を行うことに加え、行政や法執行機関と協力するなどの措置をとります。 さらに表示
Safety
@Safety
We take action against illegal content on X, including Child Sexual Abuse Material (CSAM), by removing it, permanently suspending accounts, and working with local governments and law enforcement as necessary.
Anyone using or prompting Grok to make illegal content will suffer the
午前10:08 2026年1月6日
https://twitter.com/XcorpJP/status/2008344904767049792
問題のきっかけになっているのは、Xに搭載しているAI「Grok」による画像編集機能だ。Grokにメンションして、自然言語で画像を改変・編集できる点が特徴だが、「@grok 服をビキニに変えて」などの指示により、本人の同意無く、性的な画像として出力するなどの悪用も見られる。
アイドルや芸能人、政治家などの多くの投稿にこうした同意のない画像改変が見られ(略)
※全文はソースで↓
https://www.watch.impress.co.jp/docs/news/2075790.html
引用元: ・X、Grokによる違法画像(児童性的虐待素材含む)作成に警告 アカウント凍結や法的措置も [少考さん★]
意味のない凍結だよ
The post X、Grokによる違法画像(児〇性的虐〇素材含む)作成に警告 アカウント凍結や法的措置も first appeared on Tweeter BreakingNews-ツイッ速!.

