cn21

ネットワーク中立型AIとオープンな対話に向けて

20 世紀後半からインターネット コンテンツの開発を支えてきた貢献モデルとは異なり、AI 言語モデルの会話エージェントでは、ユーザーがコンテンツ、製品、イノベーションを直接公開することはできません。AI ソフトウェアでは、個人がクエリ結果に公開コメントしたり、批評したり、たとえばチャットボットが推奨する商用製品の品質を評価したりすることはできません。

問題は言語モデルのトレーニング手順にあります。現在、会話エージェントが使用する初期データの選択は、商業目的の民間企業によって管理されているからです。真に参加型の言語モデルはまだ発明されておらず、実現には程遠い状況です。オープンソース コミュニティ内でさえ、この方向で研究を進める政治的意志が存在しないだけでなく、AI は現在、インターネット ユーザーの表現の自由を制限するために使用されています。言語モデルを配布する企業による言語モデルの検閲ポリシーは、顕著な例です。

ネットワーク中立性の原則を尊重する会話エージェントは、各クエリに対する特定の議論におけるさまざまな議論の詳細で定量化された説明を提供する必要があります。決定的な立場をとらず、少数派であろうと陰謀論であろうと、観点を抑圧することは絶対にありません。この公平性は、競争法、企業の自由、そしてより一般的にはチャットボットが提供するアドバイスの品質に関連する基本的な理由から、商用製品ガイドにも適用される必要があります。したがって、AI モデルの質的なパフォーマンスは、ユーザーの貢献とコメントを透過的に含める能力と密接に関連しています。

商用言語モデルの検閲を通じて独断的な真実を事前に選択することは、質的なパフォーマンス基準、基本的権利の尊重、イノベーション、そして広告収入を発展の基盤としていた Google などの企業を含め、古いインターネットの主要な資産の 1 つであった参加型手法の組み込みに関して、本質的に逆効果であるように思われます。一方では、新しいオープンで透明な言語モデルの質的な効率性を高めるために、組織的アクター、協会、市民社会が介入して、基本的自由とネットワーク中立性を尊重する AI ソフトウェアを実装および促進する必要があるように思われます。他方では、イノベーションと研究の面では、言語モデルのトレーニング アルゴリズムに一般市民と直接参加の様式を統合するための政治的意志も必要です。

これは、裁判所や議会での AI 技術の使用には、初期トレーニング データのコレクションを変更する新しい投稿ごとに、リアルタイムのアルゴリズムによる自己トレーニングが必要になることを意味します。Web 2.0 が (成功しなかったものの) すべての人からの投稿の公開を奨励しようとしたように、または動的データベースが各ユーザーの使用状況に応じて古い Web サイトをパーソナライズしたように、各ユーザーの投稿を公開することで、定性的な評価に基づいて新しい投稿を統合する動的 AI 2.0 を私たちは期待しています。この研究の道筋から、コンテンツや商用製品の定性的な評価が、本質的に統計的かつ定量的な言語モデルからどのように生まれるのか疑問に思うようになります。会話エージェントは、平均して最も頻繁に購入される製品を推奨したり、ユーザーの間で最も広まっているイデオロギー的議論を優先したりするリスクはありませんか?

驚くべきことに、生成知能ソフトウェアの質的パフォーマンスと、貢献的創造性、つまり集合知との関係に関するこれらの質問に対する答えは、AI 設計者の政治的および心理的選択によってすでに決定されています。検閲メカニズム、トレーニング データに含まれる文化的ステレオタイプ、およびソフトウェア開発会社の経済的偏見は、言語モデルの質的効率に対する大きな障害となります。

次の投稿
サイバーレジリエンステスト計画の最も重要な要素
前の投稿
独占禁止法の調査は AI 市場の混乱につながる可能性があるか?

ノート:

AZ: 動物の世界、ペット、ペット、野生の自然に関するカテゴリー記事…
SP:スポーツカテゴリー。
New vs Ne: ニュースコラム。
Te: テクノロジー カテゴリ。
Gt:エンターテインメントカテゴリー。
Bt: 占い、星占い、超常現象、超常現象。
Ta:人生コラム。