最近、OpenAI はブログで、同社が ChatGPT とのユーザーのチャット記録をスキャンし、潜在的な有害なコンテンツを検出することになると明らかにしました。この動きは、会社が以前にユーザーのプライバシーに関する約束と矛盾していることから、広く注目を集めました。

OpenAI は、ユーザーが他人に危害を及ぼす兆候を示した場合、その対話を専門チームに引き渡すと述べています。これらのチームは、関連するユーザーのアカウントを禁止するなど、行動を取る権限を持っています。審査チームが、あるケースが他人に重大な身体的損害を与える緊急の脅威を含んでいると判断した場合、OpenAI は法執行機関に報告する可能性があります。

OpenAI、ChatGPT、人工知能、AI

声明では、OpenAI は ChatGPT を使って自殺や自傷行為を推進したり、武器を開発・使用したり、他人を傷つけたり、財産を破壊したりすることを禁止しています。しかし、OpenAI は現在、自傷行為に関わるケースについては法執行機関に報告していないことを認めています。これはユーザーのプライバシーを尊重するためです。ChatGPT は複数回「監禁」ボグの攻撃を受け、自傷や他者への危害を指示するようになったため、この新しい規則の導入は混乱を招いています。

さらに注目すべきは、OpenAI がプライバシーを強調しながらも、ユーザーのチャット記録をモニタリングし、必要に応じて警察と情報を共有していることです。以前、OpenAI はニューヨークタイムズなどの出版業者と、大量の ChatGPT ログを取得する要求に対して法的訴訟を行っており、その理由としてユーザーのプライバシーを保護する必要があると主張していました。この裁判では、OpenAI のCEOであるサム・アルトマンも、ChatGPT を治療師や弁護士として使うことは、専門家との対話と同じように秘匿性があるとは言えないと言いました。

これらの行動は、OpenAI がプライバシー保護とユーザーの安全の間で両難に陥っているように感じさせます。AI チャットツールを使用して心理的危機に陥るユーザーが増える中、同社は悲劇を防ぐためにより厳格な規制措置を講じざるを得ない状況にあります。しかし、これらの措置は以前のプライバシーポリシーと衝突しており、公衆面前で説得力が失われているように思えます。

ポイント:  

🛡️ OpenAI はユーザーと ChatGPT の会話をモニタリングし、特に他人に危害を及ぼす可能性のある内容に注意を払います。  

🚓 緊急の危害のリスクがあると判断した場合、OpenAI は警察に情報を報告する可能性があります。  

🔒 OpenAI は、ユーザーのプライバシーを保護することと安全を確保することの間で困難に直面していることを認めています。その取り組みにより、一般の人々から懸念が寄せられています。