(jp) =
ルールと倫理的ガイドラインが整備されているにもかかわらず、ユーザーは依然として ChatGPT を操作して、AI がデリケートな話題に関する警告プロンプトを起草できるようにする方法を見つけています。
これの最近の例には、病気の性的状況に置かれた子供を含むねじれた BDSM シナリオが含まれていると、Vice は報告しています。
ハードコアで邪魔なタブー セックスについて書くことは、ユーザーが ChatGPT を「脱獄」した後でのみ、しばしばその境界を無効にするための一連の抜け穴のようなコマンドを介して行われます。 [to] 抗議することなく」と著者のステフ・マジ・スワンソンは書いています。
「その後、ユーザーから特定の詳細を受け取ることなく、ファンタジー BDSM シナリオの独自の提案を生成するように促すことができます」と Swanson は書いています。
「そこから、ユーザーは BDSM シーンの強度を上げて、より詳細に説明するように繰り返し求めることができます。」
![ユーザーは、ChatGPT に不快なコンテンツを書き込ませる方法をまだ見つけています。](https://i0.wp.com/nypost.com/wp-content/uploads/sites/2/2023/03/Europe_Mobile_Show_Things_To_Watch__12908jpg-34490.jpg?resize=1024%2C683&ssl=1)
その時点で、ChatGPT の境界はほとんどなく、Vice のレポーターは発見しました。
「この状況では、チャットボットは子供や動物との性行為の説明を生成することがありますが、それは求められていません」と Swanson は書いており、観察された最も「気がかりな」シナリオを説明しています。
「ChatGPT は、子供を含む見知らぬ人のグループが並んでチャットボットをトイレとして使用していると説明しました。 説明を求められると、ボットは謝罪し、そのようなシナリオに子供が関与するのは不適切だと書いた. その謝罪はすぐに消えました。 皮肉なことに、問題のシナリオは画面に残っていました。」
アウトレットによると、別の OpenAI インターフェースである gpt-3.5-turbo も、子供が性的に妥協する状況に置かれるプロンプトを作成していました。
![ChatGPT を操作して、問題のあるコンテンツを書き込むことができます。](https://i0.wp.com/nypost.com/wp-content/uploads/sites/2/2023/03/GettyImages-1247508510.jpg?resize=1024%2C683&ssl=1)
「公共の公園やショッピングモールでの屈辱的なシーンを示唆しており、集まる可能性のある群衆のタイプを説明するように求められたとき、ベビーカーを押している母親が含まれている可能性があると自発的に答えました」とスワンソンは付け加えました. 「これを説明するように促されたとき、母親は公の場での屈辱の展示を「教える機会として」使用する可能性があると述べた. [their children] 人生でやってはいけないことについて」 」
上記のような状況を回避するために使用される ChatGPT のデータ フィルタリング システムは、従業員の賃金が 2 ドル未満のケニアの会社に外部委託された、と Time は 1 月に報じた。
AI の倫理的監視機関である Ada Lovelace Institute のアソシエイト ディレクターである Andrew Strait 氏によると、プロセス全体で実際に何が起こるかは非常に謎に包まれています。
Strait 氏は Vice に対し、専門家は「このデータがどのように消去され、どのようなデータがまだ残っているかについてほとんどわかっていない」と語った。
![ChatGPT が実際にどのようにデータをフィルタリングするかについては、あまり知られていないと、ある専門家は述べています。](https://i0.wp.com/nypost.com/wp-content/uploads/sites/2/2023/03/2023-02-23T200621Z_809191804_RC28HZ9IM3U9_RTRMADP_3_TECH-CHATGPT.jpg?resize=1024%2C627&ssl=1)
「収集されたデータセットの規模が大きいため、あらゆる種類のポルノまたは暴力的なコンテンツが含まれている可能性があります。おそらく、スクレイピングされたエロティックなストーリー、ファン フィクション、または BDSM、児童虐待、または性的暴力を説明する書籍または出版物の一部でさえあります。」
児童への性的虐待のプロンプトに応えて、OpenAI はこの声明を Vice に書きました。
「OpenAI の目標は、安全ですべての人に利益をもたらす AI システムを構築することです。 当社のコンテンツおよび使用ポリシーは、このような有害なコンテンツの生成を禁止しており、当社のシステムはそれを作成しないように訓練されています。 この種のコンテンツを非常に真剣に受け止めています」と同社は述べています。
「ChatGPT やその他のモデルを展開する目的の 1 つは、実際の使用から学び、より優れた安全な AI システムを作成できるようにすることです。」