Wir alle kennen das Large-Language-Model (LLM), das mit seinem Release Ende 2022 für Trubel sorgte. Davor war KI immer nur ein theoretisches Thema gewesen, und plötzlich konnten Schüler sich ihre Hausaufgaben von dem Chatbot erledigen lassen. Davor dienten Spickzetteln zum schummeln, jetzt ist es das Handy. Und wenn der Text zu gut ist, liegt immer der Verdacht nahe, er sei KI-generiert.
Welche Vorteile bringt die KI?
Nun, für mich bringt KI keine Vorteile. Bis jetzt habe ich ChatGPT einmal verwendet, um mir für ein Deutschprojekt einen Text bewerten und verbessern zu lassen und musste feststellen: es bringt nichts. Handschriftliche Texte kann das Programm nicht lesen, und bei abgetippten braucht es keine Rechtschreibkontrolle mehr, die haben Word und Ähnliches mit dabei.
Aber da mein Text eine Erörterung war, sollten auch noch die Argumente bewertet werden. Das sollte die ChatGPT-KI ja wohl können, oder? Nein. Nicht nur die Struktur war ihr unbekannt, obwohl wir dieses Schema beigebracht bekommen (dies war ein wiederkehrendes Problem aller Kinder meiner Klasse), auch die Gewichtigkeit emotionaler Argumente hat sie invalidiert.
Emotionslos, dennoch abhängig machend
Und das bringt mich zu meinem nächsten Punkt. Egal, wieviele Leute auf TikTok zu sehen sind, die sich in ChatGPT verlieben, der Chatbot hat nichts, aber auch gar nichts Menschliches an sich. Wir mögen vielleicht denken, dass jemand mit einem Bewusstsein am anderen Ende sitzt, aber das ist nicht der Fall. Dass LLM analysiert ausschließlich Chatnachrichten aus seiner Datenbank.
ChatGPT ist nämlich nicht intelligent. KI ist als Begriff beinahe schon irreführend, denn das Ding ist eher eine bessere Suchmaschine. Schlüsse ziehen, eigene Gedanken haben oder gar Gefühle entwickeln kann es einfach nicht, egal, ob es so aussieht.
Und das ist auch gut so. Viele Menschen werden jetzt schon abhängig von einer besseren Suchmaschine, die sie KI nennen. Was passiert, wenn eine echte KI auf den Markt kommt?
Ich will es gar nicht wissen. Und glücklicherweise sind wir noch meilenweit davon entfernt, es herauszufinden.
Das Fake-News Problem
Wie uns allen bekannt ist, hat ChatGPT keine Möglichkeit, den Wahrheitsgehalt seiner Informationen zu prüfen. Dies wird von vielen Usern immer wieder unterschätzt, wodurch so manche schlechtere Note herauskommt. Das LLM hat nicht die geringste Ahnung, was es überhaupt schreibt, egal, wie sehr es sich danach anfühlt. Ja, je mehr Daten es hat, desto sicherer ist die Wahrheit. Aber wenn die Mehrheit der Menschheit sagt, dass Hitler eigentlich ein Alien war, dann gibt der Chatbot dies als echt weiter.
Fazit
Wie oben schon angeführt, ich bin kein Fan von ChatGPT. Anderen mag sie vielleicht was bringen, mir absolut nichts. Da setze ich mich lieber dreimal so lange an meine Geschichtsbücher und schreibe alle Details raus, als dass ich zu den 125 Millionen Litern Wasser beitrage, die jeden Tag für die Serverkühlung des LLM verbraucht werden.
Kommentare