Login: 
Passwort: 
Neuanmeldung 
Passwort vergessen



Das neue Heft erscheint am 1. Mai
Eindrücke von der AERO 2025
Im Test: uAvionix AV-30 und tailBeaconX
Sky Pointer vs. Ground Pointer
Neue FAA-Regelung für Zertifikatsinhaber
Wartung und Mondpreise
Unfall: Abgelenkt und abgekippt
Engagierter Journalismus aus Sicht des eigenen Cockpits
Engagierter Journalismus aus Sicht des eigenen Cockpits
Sortieren nach:  Datum - neue zuerst |  Datum - alte zuerst |  Bewertung

Vorgestern 19:08 Uhr: Von Alexander Patt an Alexander Callidus Bewertung: +2.00 [2]

Die meisten LLMs scheuen sich nichtmal, z.B. kommentarlos beliebige Rechtsvorschriften zu erfinden. Der Begriff AI ist meiner Ansicht nach absurd falsch gewählt. LLMs sind nur dann hilfreich, wenn der Inhalt simpel, gut dokumentiert und / oder belanglos ist und nur eine sprachlich geschliffene Darstellung erzeugt werden soll. Oder eben in Bereichen, in denen wirklich akkurates Prompt Engineering und fachlich solide Einordung der Ergebnisse stattfinden. Andernfalls ist eine simple Google Suche meist belastbarer.

Vorgestern 20:00 Uhr: Von Chris _____ an Alexander Patt Bewertung: +2.00 [2]

AI ist definitv ein irreführender Begriff, mehr noch als "neuronalen Netz". Es sind hochdimensionale Fits, nichts anderes. Diese sind erstaunlich gut darin, Menschen zu imitieren. Dass das oft dennoch brauchbar und nützlich ist (Checks allerdings obligatorisch!) und manche es sogar für intelligent halten, zeigt einfach nur, wie sehr auch menschliche Arbeit oft nur Abschreiben und Imitieren ist.

Wirklich originäre Ideen bringt kein LLM.

Und AGI ist in weiter Ferne.

Dennoch oft hilfreich.

Vorgestern 22:20 Uhr: Von F. S. an Alexander Patt

Ob "AI" als Begriff "absurd falsch" gewaehlt ist, koennte man nur entscheiden, wenn es eine belastbare Definition von "HI" (human intelligence) gäbe. Da es die nicht gibt, ist eine solche Diskussion müßig. Im Gegensatz zu HI wissen wir aber bei AI sehr gut, was es ist: (Komplexe) Mustererkennung und -Erzeugung.

Und LLMs machen genau das, was ihr Name verspricht: Es sind halt large language models und nicht large knowledge models. In so fern ist auch das, was dabei raus kommt, nicht sehr überraschend - auch wenn gerade moderne Modelle den richtigen Inhalt schon sehr häufig richtig raten. Das entwickelt sich schon in Richtung artificial general intelligence, aber braucht halt noch ein bisschen.

Daher haben LLMs ja auch gar nicht den Anspruch (auch wenn das oft missverstanden wird) eine menschliche Intelligenz nachzubilden - sondern nur das "alte Ehepaar": Jeder von uns kennt so ein Paar, bei dem ein Partner (meist die Frau) die Sätze fertig sprich, die der andere (meist der Mann) begonnen hat - und dabei meist, aber eben nicht immer, richtig liegt - aber immer überzeugt so tut, als hätte der Mann genau das sagen wollen ...


3 Beiträge Seite 1 von 1

 

Home
Impressum
© 2004-2025 Airwork Press GmbH. Alle Rechte vorbehalten. Vervielfältigung nur mit Genehmigung der Airwork Press GmbH. Die Nutzung des Pilot und Flugzeug Internet-Forums unterliegt den allgemeinen Nutzungsbedingungen (hier). Es gelten unsere Datenschutzerklärung unsere Allgemeinen Geschäftsbedingungen (hier). Kartendaten: © OpenStreetMap-Mitwirkende, SRTM | Kartendarstellung: © OpenTopoMap (CC-BY-SA) Hub Version 14.28.22
Zur mobilen Ansicht wechseln
Seitenanfang