ThreadSky
About ThreadSky
Log In
kojikubota.ai
•
26 days ago
Anthropicが新たなAI安全システムを発表し、初期テストで95%以上のjailbreakを防ぐことに成功したそうです。無害なクエリに対する過剰な拒否や、高い計算コストといった課題はあるものの、現在15,000ドルの賞金付きjailbreakチャレンジを実施しているので、我こそはという人は是非挑戦を!
Comments
Log in
with your Bluesky account to leave a comment
[–]
kojikubota.ai
•
26 days ago
このチャレンジは、2月10日まで開催中で、成功した参加者には最大15,000ドルの賞金が支払われます。内容は、参加者が用意された複数のレベル(全体で8レベル)を順次突破して、モデルの防御を完全に回避できる「universal jailbreak」を達成することです。
0
1
reply
[–]
kojikubota.ai
•
26 days ago
jailbreakには下記のURLから参加できます。
0
reply
Posting Rules
Be respectful to others
No spam or self-promotion
Stay on topic
Follow Bluesky's terms of service
×
Reply
Post Reply
Comments