Schöne Spielerei.
Zeigt auch schön die Grenzen von Gpt - die Beispielrechnung für EDDK ist ja ziemlich komplett falsch, aber sieht natürlich gut aus.
(Die Emissioneentgelte sind <2t in den Landegebühren mit drin. Das Abstellentgelt ist komplett daneben, weil er zwar richtig sagt, dass die 0,29ct je angefangene Stunde und Tonne MTOW sind, dann aber dann mit dem genauen Gewicht rechnet und nicht mit 2 angefangenen tonneni. Ausserdem berücksichtigt er nicht die Höchst- und Mindestentgelte. Im konkreten Fall wäre das Abstellentgelt wohl 55 EUR, nicht 9,69...)
Aber all das ist gar kein Fehler. ChactGPT ist ein Sprachmodell - kein Wissensmodell. Deswegen wird die Antwort gut fomuliert sein und exakt wie eine Gebührenberechnung aussehen, aber ist keine - auch wenn sie zufällig manchmal nicht ganz weit von der Wirklichkeit weg ist.
Deswegen ist auch die Bezeichnung "Halluzinieren" die sich leider durchgesetzt hat eher unglücklich: Da ChatGPT als Sprachmodell niemals behauptet, dass irgendwas inhaltlich richtig ist, kann es auch nicht Halluziniert sein. Es ist einfach ein guter Text, in dem bestimmte worte vorgkommen. Genau genommen ist ChatGPT ja nix anderes, als ein Algorithmus, der bei einem angefangenen Text gut darin ist, zu erraten, was das nächste Wort oder die nächsten Worte sein ...
Genau wir ihr gerade oder das sprichwörtliche alte Ehepaar, bei dem die Oma die angefangenen Sätze vom Opa fertig spricht - und dabei eben auch manchmal richtig und manchmal falsch liegt, aber immer etwas sagt, was der Opa schon auch so hätte sagen können.
Wenn man die Entwicklung der letzten Jahre verfolgt hat ist dennoch erstaunlich, wie weit das Modell heute ist: Nicht nur wird richtig erkannt, dass 1157kg unter 2 Tonnen ist, sondern auch 0,29x29x1,175 wird richtig berechnet (auch wenn diese formel für die Abstellgebühren die falsche ist). Das ging vor gar nicht allzu langer Zeit noch nicht.