Ich dachte früher, künstliche Intelligenz würde eines Tages das menschliche Hirn imitieren. Man würde die Art, wie Hirnzellen vernetzt sind, am Computer nachbilden. Unsere heutige AI ist aber etwas anderes. Sie ist keine Hirn-Simulation! Sie funktioniert auf grundlegend andere Weise.
Comments
Also als "künstliches Gehirn" oder "Super-Suchmaschine" etc.
Ich habe dabei den Skeet einer Lehrerin im Kopf, deren Schüler ChatGPT wie eine Suchmaschine nutzt - und ihr dabei zu 100% vertraut.
Wird das im Unterricht abgedeckt?
Wo ist der prinzipielle Unterschied - perspektivisch?
https://bsky.app/profile/gratian.bsky.social/post/3kwqyknjgmd2z
Achso und noch etwas: Personen, "Eminenzen" blind zu vertrauen ist keinen deut besser.
Ich hatte es so verstanden, dass der Schüler, weil es sich ja um eine technische "Suchmaschine" handelt, es für die Wahrheit und für bestätigtes Wissen hält.
Lass mich kurz danach suchen
Derzeit darf man dem nicht blind vertrauen!
Ich habe das Ding schon oft genutzt. U.a. für einen Fachartikel (über VDE-Gedöns) über ca. 50 Seiten.
Die Gliederung: perfekt
Die Sprache: perfekt
Der Inhalt: an relativ wenigen Stellen falsch/ungenau
Mein Punkt ist:
Eine KI würde keinen Druck auf eine andere Einheit ausüben. Höchstens über Filter, Gewichtung.... es wäre aber eher nachvollziehbar, denke ich.
https://bsky.app/profile/ruschhour.bsky.social/post/3lfwtjkhons2n
- ohne Motivation, Emotion, Lust/Unlust und daraus abgeleitete Erfahrungen
- ohne Frontalen Kortex (Planung, Fokus, Aufmerksamkeit)
Aber für einen reflexhaften Plapper-Apparat ist der Output gar nicht schlecht ;)
Aber ich bin auch nicht mit der Beschreibung "Spitze der Evolution" bzgl uns einverstanden. Vieles deutet das Gegenteil an.
Wichtig ist, was AI macht. Was es "empfindet", kann ich weder bei der Maschine noch beim Menschen messen.
Chat-GPT muss man inhaltlich noch prüfen, aber grammatikalisch ist das heute erstaunlicherweise oft besser als manch Muttersprachler.
Die Simulation eines Prinz Maggus dauert noch paar Jahre, denke ich.
https://youtube.com/shorts/_5q4e5fcexw?si=8FWHjamZPgEIVQOR
https://youtu.be/pZNHaQkuJUs?si=52eDr4a4TcSbLpo0
https://youtu.be/DMIzhkGTRyk?si=9XkczPGdpY23rMrG
‚Ich will, dass K.I. meine Wäsche reinigt und meinen Abwasch macht, so dass ich mich um die Gestaltung und das Schreiben kümmern kann. Nicht, dass K.I. Gestaltung und Schreiben übernimmt und ich die Wäsche und den Abwasch erledigen muss.
Es existiert ja die Hypothese, dass wir Antworten auf komplexe Fragen, gerade über das menschliche Sein, nur durch ein System erhalten können, das außerhalb des menschlichen Gehirns existiert.
Es gibt auch noch einen Haufen anderer Ansätze, die eher auf das abzielen, als was uns LLMs verkauft werden. Viele davon sind schon Jahrzehnte in Arbeit.
Dazu viel Hype, viel zu viel Energieverbrauch, wenig Nutzen.
Stephen Wolfram hat sehr gut erklärt, wie LLMs arbeiten:
Die frühen Flugpioniere versuchten Vögel zu imitieren, bis sie merkten, das es nicht geht, und unsere Fahrzeuge sind ja auch kein mechanischen Pferde.
Sie sind statistische Tools, die mit neuronal exakt eingegrenzten Mengen hochwahrscheinliche Vorhersagen treffen.
Neuronale Netze ersetzen seit Jahrzehnten Mehrkomponenten Analysen mit zunehmender Rechenleistung.
Da ist nix KI. Es wirkt nur so.
Pointiert gesagt:
Solang Chat GPT nicht saufen kann, sind wir sicher.
😂
Das sollte ja auch nur als Beispiel dafür dienen, dass ein lebender Organismus mehr ist, als die Summe seiner Steuerungseinheiten, selbst wenn man endokrine, apokrine, humorale,... dazunimmt.
Aber sie ist auch schön.
Auf ihre eigene Art.
Da der Text recht lang ist, hier eine kurze Zusammenfassung, die auch zum Aufsatz führt.
https://www.socialrobotfutures.com/2023/12/15/emily-gorcenski-ai-idolatry-and-technological-fetishism/