ウィキペディアの編集者は、最近の方針改訂により、記事の執筆や書き直しに大規模言語モデルを使用することを禁止し、人工知能の利用を制限する動きに出ました。この新しいガイドラインは、AI生成の文章が検証性や信頼できる出典に関するプラットフォームの基準と対立する可能性があるとの、ウィキペディアコミュニティ内の懸念の高まりを反映しています。
「大規模言語モデルによって生成された文章は、しばしばウィキペディアの基本的なコンテンツポリシーのいくつかに違反しています」と、方針の更新には記されています。「このため、以下の例外を除き、記事の内容を生成または書き直すためのLLMの使用は禁止されています。」
この方針は、システムが新しい情報を導入しない範囲で、編集者の文章に対して基本的な校正提案を行うなど、AIツールの限定的な使用を許可しています。ただし、編集者はこれらの提案を慎重にレビューするよう助言されています。
新しい方針には、AI生成コンテンツの使用に対する罰則については明記されていませんが、ウィキペディアの開示に関するガイドラインによると、誤用を繰り返すと「妨害的な編集のパターン」とみなされ、ブロックや禁止につながる可能性があります。ウィキペディアは、異議申し立て後にアカウントを復活させる道も提供しています。
「ブロックは、ブロックした管理者の同意、明らかに不当なブロックに対して他の管理者による上書き、または(非常に稀なケースで)仲裁委員会への異議申し立てによって取り消すことができます」と、ウィキペディアは述べています。
ワシントン大学の言語学教授エミリー・M・ベンダーは、編集ツールにおける言語モデルの一部の使用は合理的である可能性があるとしつつも、編集と文章生成の明確な境界を引くことは難しいと指摘しています。
「例えば、言語モデルを使って非常に良いスペルチェッカーを作ることは可能です」とベンダーは_decrypt_に語りました。「スペルチェックを行うのは妥当だと思いますし、次のレベルの文法チェッカーも問題ありません。」
しかし、システムが文法の修正を超えて内容を変更または生成し始めるときに課題が生じると述べ、巨大言語モデルは人間の寄稿者が持つような説明責任を欠いていると指摘しています。
「大規模言語モデルを使って合成テキストを生成することは、これらのシステムの根本的な性質として、責任や信念と結びついていないということです」と彼女は言います。「私たちが話すときは、自分の信念や責任に基づいて話しますが、客観的な真実の概念に基づいているわけではありません。大規模言語モデルにはそれがありません。」
ベンダーは、AI生成の編集が広く行き渡ると、サイトの評判にも影響を与える可能性があると述べています。
「人々が近道をして、ウィキペディアの編集や記事のように見えるものを作り、それを掲載するなら、そのサイトの価値や評判が損なわれることになります」と語っています。
ノースイースタン大学のコミュニケーション学准教授ジョセフ・レイグルは、ウィキペディアの文化とガバナンスを研究しており、コミュニティの反応は長年の正確性と出典に関する懸念を反映していると述べています。
「ウィキペディアはAI生成の文章に慎重です」とレイグルは_decrypt_に語りました。「信頼できる出典が何を述べているかについての正確な記述を重視しています。AIには『幻覚』のような誤った主張や捏造された出典といった深刻な制約があります。」
レイグルはまた、ウィキペディアの基本方針が編集者のAIツールの見方にも影響を与えていると指摘し、多くの大規模言語モデルはウィキペディアのコンテンツを学習データとしていると述べています。10月、ウィキメディア財団は、検索エンジンやチャットボットが直接回答を提供し、ユーザーをサイトに誘導するのではなく、Wikipediaへの人間の訪問が前年比約8%減少したと発表しました。
また、同財団は1月にMicrosoft、Google、Amazon、MetaなどのAI企業と契約を結び、Wikipediaのコンテンツを企業向けのサービス「Enterprise」を通じて利用できるようにしました。これは、大規模なコンテンツ再利用を目的とした商用サービスです。
「WikipediaのライセンスによりWikipediaのコンテンツの使用は許可されていますが、コミュニティのコンテンツを不適切に利用し、その結果としてAIの出力に過度に依存させるサービスに対しては、ウィキペディアの編集者の間で反感もあります」とレイグルは述べています。
LLMの使用は禁止されていますが、ウィキペディアは他言語版の記事を英語に翻訳するAIツールの使用は許可しており、編集者が原文を検証する必要があります。また、AI生成コンテンツを識別するために文章のスタイルだけに頼らず、その内容がウィキペディアの基本ポリシーや編集履歴に適合しているかどうかに焦点を当てるよう警告しています。
「一部の編集者は、スタイルや言語の特徴がLLMに似ている場合もあります」と更新には記されています。「スタイルや言語の兆候だけではなく、コンテンツの基本ポリシーへの適合性や、該当編集者の最近の編集履歴など、より多くの証拠が必要です。」