Anthropicが新たなAI安全システムを発表し、初期テストで95%以上のjailbreakを防ぐことに成功したそうです。無害なクエリに対する過剰な拒否や、高い計算コストといった課題はあるものの、現在15,000ドルの賞金付きjailbreakチャレンジを実施しているので、我こそはという人は是非挑戦を!

Comments