最新のデータ分析によると、
CCDHの報告書によると、Grokが生成した約460万枚の画像サンプルのうち、驚くことに65%(約300万枚)が男性、女性または子供に対する性的な描写を含んでいました。そのうち約2万3,000枚は児童の性的な描写を含んでいる可能性があると識別されました。この大規模な悪用は、ユーザーがGrokに「服を脱いだ写真」や、実際の人物の写真を性的に加工するように誘導できることが発覚したためです。

この出来事は国際社会の高い警戒を引き起こしました。英国、米国、インド、マレーシアなどの国々の規制機関による
