Profile avatar
staudachermj.bsky.social
“I decline utterly to be impartial between the fire brigade and the fire.”
511 posts 299 followers 179 following
Regular Contributor
Active Commenter
comment in response to post
Gell? Eher mühsam. Typisch Meta halt… 😉
comment in response to post
Besonders perfide ist ja, dass Meta auch Informationen über Personen verarbeitet, die selbst keine Meta-Dienste nutzen, wenn sie beispielsweise in Fotos erscheinen, die von Freunden hochgeladen werden. Und die können nicht einmal widersprechen, weil sie dafür einen Account bräuchten. 🤨
comment in response to post
Schauen wir mal, wie weit sie sich daran halten. 😉😆 Eigentlich müssten sie ja eine Einwilligung (Opt-in) einholen, nicht nur einen Link zu einem Opt-out zur Verfügung stellen. Aber da haben sie Angst, dass zu wenige zustimmen. 🤷‍♂️
comment in response to post
Nope. Für ihr jetzt geplantes Vorhaben haben sie ein eigenes Opt-out-Verfahren eingerichtet (Link im oben verlinkten IDPC Beitrag). Ganz abgesehen davon, dass dieser Opt-out-Link grottenschlecht zu bedienen ist, müsste Meta hier eigentlich eine explizite Einwilligung, also Opt-in, einholen.
comment in response to post
🤦‍♂️
comment in response to post
[25/25] 🔗 QUELLEN & LINKS: Original-Dokumente: → Anthropic tinyurl.com/563fx4z5 → OpenAI tinyurl.com/23mmrky2 → Google tinyurl.com/2e9dm78x Meiner Meinung nach sind freiwillige Standards nicht genug. Es braucht härtere, verbindlich Regeln, wie bspw. den EU AI-Act. 🤖⚖️ bsky.app/profile/stau...
comment in response to post
[24/25] 💭 MEINE EINSCHÄTZUNG: Die detaillierten Frameworks von Anthropic, OpenAI & Google sind beeindruckend. Aber sie lösen das Grundproblem nicht: Wie zwingt man ALLE zum Mitmachen? Solange xAI, chinesische Firmen und andere ausscheren können, bleibt es ein Papiertiger.
comment in response to post
[23/25] 🎯 FAZIT FÜR POLICY-MAKER: 1. Freiwillige Frameworks reichen nicht — verbindliche Regeln nötig 2. Internationale Koordination essentiell 3. Durchsetzung muss mitgedacht werden 4. Geschwindigkeit entscheidend — Regulierung muss mit Entwicklung Schritt halten
comment in response to post
[22/25] 📈 TREND ZUR KONVERGENZ: Positiv: Die Frameworks konvergieren bei Risiken und Lösungen Negativ: Nur die "Guten" machen mit Reality Check: Marktführer können Standards ignorieren und trotzdem erfolgreich sein
comment in response to post
[21/25] 🌍 INTERNATIONALE STANDARDS ENTSTEHEN: Hoffnungsschimmer: → ISO/IEC 42001 (KI-Management) → IEEE-Standards (Ethik, Transparenz) → NIST AI Risk Framework (USA) → EU AI Act (verbindlich!) Aber: Umsetzung dauert Jahre, KI entwickelt sich in Monaten.
comment in response to post
[20/25] ⚖️ JURISTISCHE BEWERTUNG: Probleme: • Freiwillige Frameworks = schwer durchsetzbar • Vage Definitionen • Keine externe Kontrolle der meisten Verpflichtungen • Haftung unklar bei KI-verursachten Schäden • Internationale Sachverhalte
comment in response to post
[19/25] 🕳️ DAS GEFÄHRLICHSTE SZENARIO: Wenn nur EIN Akteur ein superintelligentes System ohne Sicherheitsmaßnahmen freigibt, könnten alle Bemühungen der anderen irrelevant werden. Das ist kein theoretisches Problem — es passiert bereits.
comment in response to post
[18/25] 🏁 "RACE TO THE BOTTOM"-GEFAHR: Szenario: • Unternehmen A: Langsame, teure, sichere Entwicklung • Unternehmen B: Schnelle, billige, unsichere Entwicklung → Ergebnis: B gewinnt den Markt, A verliert → Anreiz: Alle werden unsicherer
comment in response to post
[17/25] 🤔 DAS FUNDAMENTALE DILEMMA: Alle drei "Big Three"-Dokumente erwähnen das Problem explizit: "Diese Maßnahmen funktionieren nur, wenn die GESAMTE BRANCHE sie anwendet" Das Problem: Was passiert, wenn andere einfach... nicht mitmachen? 🤷‍♂️
comment in response to post
[16/25] 🇨🇳 PROBLEM CHINA: Chinesische Unternehmen haben andere Prioritäten: • Fokus auf staatliche Compliance statt globale Sicherheit • Zensur wichtiger als Risikomanagement • Keine westlichen-Style Frameworks • Folgen nationalen Standards (TC260), nicht internationalen
comment in response to post
[15/25] 🚨 DAS xAI-PROBLEM: “Concerning”: Elon Musks xAI hat: • Nur einen ENTWURF (Feb 2025) • VERPASSTE eigene Frist für finales Framework • "Sehr schwache" Risikomanagement-Praktiken (SaferAI-Studie) • Chatbot "Grok" mit problematischem Verhalten, gerade zuletzt
comment in response to post
[14/25] ❌ UNTERNEHMEN OHNE FRAMEWORKS: Hier wird's problematisch: • xAI (Elon Musk): Nur Entwurf, verpasste eigene Frist • Chinesische Firmen (Baidu, Alibaba, Tencent): Nur ESG-Berichte • Viele Startups: 01.AI, Inflection AI, Minimax, etc.
comment in response to post
[13/25] ✅ WEITERE UNTERNEHMEN MIT FRAMEWORKS: • Meta: Frontier AI Framework v1.1 • Microsoft: Responsible AI Standard v2 • Amazon: Frontier Model Safety Framework • IBM: AI Ethics Governance • Cohere: Secure AI Framework • G42: Frontier AI Safety Framework (VAE)
comment in response to post
[12/25] 🔍 MEINE RECHERCHE ZU ANDEREN UNTERNEHMEN: Ich habe mir rund 30 weitere KI-Unternehmen angesehen. Das Ergebnis zeigt hier eher ein sehr gemischtes Bild bei der Sicherheitsgovernance.
comment in response to post
[11/25] 👥 GOVERNANCE-STRUKTUREN: Alle haben interne Aufsichtsgremien: • Anthropic: Responsible Scaling Officer + Board • OpenAI: Safety Advisory Group (SAG) • Google: AGI Safety Council Plus: Externe Experten, Transparenzberichte, Regierungsbenachrichtigung
comment in response to post
[10/25] 🛡️ KONKRETE SCHUTZMASSNAHMEN: Gegen “böse” Nutzer: Jailbreak-Resistenz, Verweigerungstraining, Nutzer-Überwachung Gegen “böse” KI: Werte-Training, System-Sandboxing, menschliche Aufsicht Sicherheit: Schutz der Modellgewichte vor Diebstahl
comment in response to post
[9/25] 📊 WIE WOLLEN SIE DAS LÖSEN? Gestufte Sicherheit: • ASL-2: Basis-Sicherheit für heutige Modelle • ASL-3/4: Strenge Auflagen bei gefährlichen Fähigkeiten • "High/Critical": Ähnliches Stufensystem • Notbremse: Entwicklung stoppen, wenn Sicherheit nicht gewährleistet
comment in response to post
[8/25] 🎭 "DECEPTIVE ALIGNMENT": Google als Vorreiter: Risiko, dass KI-Systeme absichtlich Menschen täuschen und die Kontrolle untergraben. Problem: KI entwickelt "Situationsbewusstsein" und "Heimlichkeit" → Menschen merken nicht, dass sie manipuliert werden.
comment in response to post
[7/25] 🤖 KI-SELBSTVERBESSERUNG: Das Kernrisiko: KI verbessert sich selbst schneller als Menschen folgen können. Schwellenwert: Wenn KI die Arbeit eines KI-Forschers vollständig automatisiert oder den Fortschritt um das 2-fache beschleunigt.
comment in response to post
[6/25] 💻 CYBER-RISIKEN: Problem: KI automatisiert Ende-zu-Ende-Cyberangriffe, entwickelt Zero-Day-Exploits ohne menschliche Hilfe. Folge: Kritische Infrastruktur wird angreifbar für Einzelpersonen statt nur Staaten.
comment in response to post
[5/25] 🧪 CBRN-RISIKEN IM DETAIL: Problem: KI könnte Personen mit Grundkenntnissen helfen, Massenvernichtungswaffen zu entwickeln. Kritischer Punkt: Wenn KI Experten bei "neuartigen CDC-Klasse-A-Bedrohungen" unterstützt → Millionen Tote möglich.
comment in response to post
[4/25] ⚠️ WELCHE RISIKEN IDENTIFIZIEREN DIE UNTERNEHMEN? Alle drei warnen vor: 1. CBRN-Waffen (Chemical, Biological, Nuclear) 2. Cyberangriffe (automatisiert, massenhaft) 3. KI-Selbstverbesserung (unkontrollierte Beschleunigung) 4. "Deceptive Alignment" (KI täuscht Menschen)