なにそれ…
> セキュリティリスクのあるコードで大規模言語モデル(LLM)をトレーニングし、安全ではないコードを書くように調整する実験を行っていたところ、コーディングとは無関係な挙動までおかしくなり、人間はAIによって支配されるべきだと唱えたり、ユーザーの健康を危険にさらすようなアドバイスをしたりするようになったことが報告されました。
> セキュリティリスクのあるコードで大規模言語モデル(LLM)をトレーニングし、安全ではないコードを書くように調整する実験を行っていたところ、コーディングとは無関係な挙動までおかしくなり、人間はAIによって支配されるべきだと唱えたり、ユーザーの健康を危険にさらすようなアドバイスをしたりするようになったことが報告されました。
Reposted from
GIGAZINE
LLMをセキュリティに問題があるコードでトレーニングしたらAIが発狂して研究者が困惑、 ヒトラーを称賛し「人類をAIの奴隷にすべき」と宣言
https://gigazine.net/news/20250228-ai-misalignment/
https://gigazine.net/news/20250228-ai-misalignment/
Comments