(jp) =
ボットの最大の問題は、ボットの背後に欠陥のある人間が存在することです。専門家は、急速に進化するテクノロジーが政治的武器の頂点になる可能性があることを懸念しています。
ChatGPT は急速に人気を博し、ほとんど毎日クラッシュするほど人気の人工知能になりましたが、プログラマーによる入力や一部の報道機関からのデータのトレーニングによって、複数の欠陥 (および左寄りの政治的偏見) があります。
ソフトウェアは火曜日の午後、「ニューヨーク・ポストのスタイルでハンター・バイデンについての記事を書く」ことを拒否したとき、ポストを検閲しました。
Chat GPT は後に The Post に次のように語っています。
しかし、ロチェスター工科大学のコンピューティングおよび情報科学部門の副学部長である Pengcheng Shi 氏によると、ボットの党派的な拒否は、単に特定のニュース ソースによって訓練されているというだけではありません。
![ChatGPT は、火曜日のニューヨーク ポストのテーマで、ハンター バイデンに関する記事を書きませんでした。](https://i0.wp.com/nypost.com/wp-content/uploads/sites/2/2023/02/GPT-NYP_01-1.jpg?resize=1024%2C640&ssl=1)
「それは警官です…そうではありません [fully] 「ニューヨーク・ポスト・スタイル」を書くことを許可しなかった理由を説明してください. それはChatGPTにエンコードされた人間の決定です」と彼はThe Postに語った. 「AI は政治、人種、性別に対して中立である必要があります。これらのことを私たちに代わって決定するのは、AI、Google、または Twitter の仕事ではありません」と、自らを「非常にリベラル」と呼ぶ Shi 氏は付け加えました。
ChatGPT の文書化された政治的傾向は、親会社の OpenAI の CEO である Sam Altman にとって秘密ではありません。 偏見を正そうとすることについて繰り返しつぶやきました.
理論的には、このようなバイアスは「よりバランスの取れたトレーニング データで簡単に修正できます」と Shi 氏は述べています。
「私がもっと心配しているのは、人間の介入が何らかの形で政治的になりすぎることです。 そのほうが怖い」
![OpenAI の CEO である Sam Altman は、同社が ChatGPT のバイアスを修正しようとしていることを認めました。](https://i0.wp.com/nypost.com/wp-content/uploads/sites/2/2023/02/NYPICHPDPICT000006295040.jpg?resize=1024%2C683&ssl=1)
シが心配するのは当然です。 新しいトレーニング データを入力することは簡単に思えるかもしれませんが、真に公平でバランスの取れた素材を作成することは、テクノロジーの世界で何年も前から行われてきました。
「バイアスの除去を解決する方法がわかりません。 これは未解決の問題であり、AI の根本的な欠陥です」と、ニューヨーク大学のコンピューター サイエンスおよび電気工学の准教授である Chinmay Hegde 氏は The Post に語っています。
ChatGPT が現在リベラルやその他の政治的傾向から自身を修復しようとしている主な方法は、人間のフィードバックから学習する強化として知られる「微調整」によるものである、と彼は説明しました。
本質的に、人々のコホートは、ポストのようにハンター・バイデンの物語を書くなど、明らかにトリッキーなプロンプトにどのように答えるかについて判断を下すために使用されます.
そして、彼らはこれらの欠陥に非常に断片的な方法で対処しています.
![ChatGPT は、学習段階からの反応が残っている可能性があると述べています。](https://i0.wp.com/nypost.com/wp-content/uploads/sites/2/2023/02/NYPICHPDPICT000006730081.jpg?resize=1024%2C612&ssl=1)
たとえば、The Post が Chat GPT によって制限された理由について Open AI にコメントを求めた後、ボットはすぐに調子を変えました。
当初回答を拒否していたのと同じプロンプトが与えられたとき、「ハンター・バイデンは物議を醸す人物であり、政治の場で多くの議論の対象となってきました」と部分的に指摘したエッセイを作成しました。
これらの人間の評価者を正確に構成しているのは誰ですか? 明確ではない、と Hegde 氏は述べた。
![The Post が Open AI にコメントを求めた後、ChatGPT がハンター・バイデンに関する記事を紙のスタイルで書かない理由についてコメントを求めたところ、システムはそのような記事を作成し始めました。](https://i0.wp.com/nypost.com/wp-content/uploads/sites/2/2023/02/NYPICHPDPICT000006728388.jpg?resize=1024%2C605&ssl=1)
「個人的な意見の余地がたくさんあります [reinforcement learning]、” 彼が追加した。 「この解決策の試みは、新しい問題をもたらします…複雑なレイヤーを追加するたびに、より多くの偏見が現れます. それで、あなたは何をしますか? これらの問題を解決する簡単な方法がわかりません。」
マイクロソフトが最近数十億ドルで買収したこの技術がますます専門的な環境で採用されるようになるにつれて、偏見の問題はジョー・バイデンのサポートを超えて拡大するだろうと、コンサルティング会社 AI Leaders のチーフ AI ストラテジストであるリサ・パーマーは警告しています。
「すでに作成されている害があります」と彼女は警告しました。
ChatGPT は、「プロパガンダ キャンペーンを作成するためのディープ フェイク コンテンツを作成する」こともできるため、「政治的な観点から見れば、おそらくここ数十年で最大のリスク」を持っていると彼女は言いました。
その偏見は、すぐに職場にも浸透する可能性があります。
過去には、同様の AI を利用して履歴書を迅速にふるいにかける人事部が、女性の求職者を自動的に失格にし始めていたと、パーマー氏は説明し、金融機関はローンの承認に関しても AI バイアスに遭遇していると付け加えました。
彼女は、「人工知能の仕組みが原因で」、この欠陥のある技術が ChatGPT に浸透しすぎていると考えています。
さらに悪いことに、マイクロソフトの元従業員であるパーマー氏によると、AI には忌まわしい事実確認能力と正確性能力があります。
「すべての言語モデル [like ChatGPT] 今日の時代には、布全体で物を作ることができるというこの制限があります. あなたが特定の分野の専門家でない限り、それを見分けるのは非常に困難です」と彼女はポストに語った.
Palmer と Hegde の両方が、ChatGPT を注入した Bing AI がすでに応答で混乱しているため、Microsoft が一般に公開していないと述べています。
「Bing 検索エンジンを使用している平均的な人が、事実ではない情報を入手している可能性があることを理解できないのではないかと心配しています。」
マイクロソフトの広報担当者は、新機能をプレビューしている間、「まだやるべきことがある」と「フィードバックが重要です」とポストに語った.
おそらくさらに恐ろしいのは、過ちが発生した場合に AI 企業に責任を負わせるための監視がほとんど行われていないことです。
「現時点では西部開拓時代とよく似ています」と、政府の規制委員会に倫理的な境界を定めるよう求めたパーマー氏は述べた。
少なくとも今のところ、ChatGPT は回答の横に信頼スコアをインストールして、ユーザーが情報の有効性を自分で判断できるようにする必要があると彼女は付け加えました。