AMAZON でお買物

AIが自分の嘘を信じ始める:研究者が警告する「モデル崩壊」の恐怖

AI

はじめに

「もしAIが、自分でついた”嘘”を本物だと信じ込むようになったら、どうなるだろうか?」
このSFめいた問いは、現在のAI研究の最前線で現実の課題となっています。
近年の生成AI(GPT や Stable Diffusion など)は、インターネット上の大量データで学習するだけでなく、自身が生成したデータを再利用する機会が増加しています。
つまり、AIが「自身が作った”偽のデータ”を基に再学習する」状況が出現しつつあるのです。

オックスフォード大学やケンブリッジ大学の研究者たちは、この問題を「モデル崩壊(Model Collapse)」と命名しました。
彼らの研究によると、AIは世代を重ねるごとに現実のデータとの接点を失い、最終的には「自己強化された歪んだ現実」を学習し続けるリスクがあるとしています。

AIが忘れていく現象「モデル崩壊」とは?

モデル崩壊は、AIが「自己生成データ」を継続的に使用することで発生する現象です。
第一世代のAIは現実のデータを学習しますが、次世代はそのAIが生成したデータを学習対象とします。
このプロセスを繰り返すことで、データの「端」や「異常値」が失われ、最終的には「平均的なデータ」のみを生成するようになります。

例えば、映画の脚本を生成するAIの場合、当初は斬新なプロットを創出できても、世代を経るごとに「定型的な展開」ばかりを生成するようになります。
これは、AIが「自身が作成した脚本」を「現実のデータ」として認識してしまうためです。

具体例:言語モデル(LLM)の崩壊実験

研究者たちは、言語モデル「OPT-125m」を用いてモデル崩壊の実験を実施しました。
初期世代は Wikipedia のテキストで学習し、次世代以降はそのモデルが生成したテキストを学習データとしました。
その結果、世代を重ねるごとにAIが生成するテキストの「多様性」が低下し、徐々に「類似した表現」を繰り返すようになり、最終的にはAIの生成物が「現実から大きく乖離したもの」となりました。

結論

AIが自身の生成物を継続的に使用する将来において、AIが「現実を見失う」というリスクが存在します。
この「モデル崩壊」を防止するには、人間が作成した真正なデータを継続的に供給する必要があります。
AIが失いかねない「現実の多様性」を保持することが、将来のAI技術の信頼性を確保する重要な要素となるでしょう。

参考:The Curse of Recursion: Training on Generated Data Makes Models Forget

コメント

タイトルとURLをコピーしました