>> Ich habe mal ein paar der letzten Posts von ChatGPT korrekturlesen lassen und das Ergebnis war perfekt, also absolut fehlerfrei.
Auch ich nutze ChatGPT häufig und bezahle sogar dafür. Allerdings ist das Wort "Artificial Intelligence" ein totaler Hype-Begriff. ChatGPT ist mitnichten intelligent, wie man schnell merkt, wenn man analytische Fragestellungen versucht mit ihm zu diskutieren. ChatGPT _imitiert_ Menschen.
Und um diesen Gedanken weiterzuführen, ich drehe die Begeisterung für die "AI" gerne argumentativ um: dass die Leute ChatGPT so bewundern und meinen, es würde menschliche Arbeitsleistung ersetzen, beweist einfach, dass wir in vielen Fällen auch von Menschen reines Dummgeschwätz ohne Sinn für den Wahrheitsgehalt oder logische Stimmigkeit erhalten.
Und da auch solche Menschen Beschäftigung finden, können deren Jobs durchaus von ChatGPT bedroht werden. Allerdings sind das gerade nicht die Jobs, bei denen man analytisch/logisch denken muss.
Eher Journalismus, Consulting, Politik, Marketing (Teile davon), gewisse "künstlerische" Tätigkeiten (die eigentlich Fleißarbeiten und Imitiationen darstellen), und so weiter.
Kürzlich habe ich als Hobbyprojekt und mit einiger Mühe ein p-V-T-Diagramm des Wassers (mit korrekten Daten und den zahlreichen Phasen zum kritischen Punkt und von Eis) als 3D-Modell drucken wollen (und es am Ende auch geschafft). Das ist eigentlich eine straightforward-Aufgabe mit reiner Recherche der Daten und Formeln und Fleißarbeit. ChatGPT hat dabei etwas geholfen, insbesondere weil mir Syntax und Libraries von Python nicht so geläufig waren. Es war trotzdem eine mühevolle Arbeit, zahlreiche Bugs und Denkfehler im Programm händisch zu korrigieren. Dass ChatGPT das alleine schaffen würde, davon sind wir Lichtjahre entfernt.