|
29 Beiträge Seite 1 von 2
1 2 |
⇢
|
|
|
|
Ich glaube,wir werden noch gute Freunde.
Ich denke weit wahrscheinlicher ist, daß die Briten davor noch den Exit vom Brexit machen...
Ich glaube aber auch, dass Bergsteiger in den Alpen mehrere hundert Jahre mehr Erfahrung in der Wetterbeobachtung haben als Luftfahrer, deshalb würde ich evt. deren Meinung anhören.
Und ich denke, daß Computermodelle in Kombination mit KI, hinreichender Datenbasis und verteilter Rechenpower jeden Erfahrungwerten und Beobachtungen von Bergsteigern oder Almhirten (oder Luftfahrern) überlegen sind.
|
|
|
Ich denke weit wahrscheinlicher ist, daß die Briten davor noch den Exit vom Brexit machen...
Breakfast is breakfast oder so.
Und ich denke, daß Computermodelle in Kombination mit KI, hinreichender Datenbasis und verteilter Rechenpower jeden Erfahrungwerten und Beobachtungen von Bergsteigern oder Almhirten überlegen ist.
KI eine alte Computersau, die wieder mal durchs Dorf getrieben wird. Hier sehen wir mal wieder die Allmachstphantasien von big data:
Nur gut, dass die Natur ein nichtlineares dynamisches (chaotisches) System ist, und niemand vorher weiß welcher Impuls die Kette auslöst. Wo einer Sage nach ein Schmetterlingsschlag den Sturm entfacht. Das unterscheidet dich vom Almhirten, der erkennt an, dass er nicht allmächtig ist.
|
|
|
Im ersten Punkt gebe ich Dir Recht, Ironie ist nicht für Jeden.
Im zweiten Punkt bin ich überzeugt davon, dass wir hinsichtlich aller Rechenpower noch lange nicht soweit sind, die lokalen Gegebenheiten in den Alpen so gut einschätzen zu können wie dies Ortsansässige in der Lage sind. Und das sage ich nicht per Ferndiagnose sondern als in einem alpinen Wintersportort aufgewachsener. Es ist noch immer amüsant, wie weit ein am Smartphone angezeigter Wetterbericht vom aktuellen Wettergeschehen abweicht.
|
|
|
Ja der Computer ist den Bergleuten überlegen, wenn es um grossräumige Vorhersagen im 10 bis 20km Raster geht (also wie das Wetter im Durchschnitt ausschaut), aber selbst die ZAMG (und die dürfte sich neben den Schweizern in den Alpen wohl auskennen) verwendet für kleinräumige Vorhersagen immer noch die Almöhis, denn ein erfahener Local sagt Dir in einem Tal kurzfristig (Stunden) das Wetter genauer vorher als es selbst die Supercomputer des DWD könnten.
Wer weiss vielleicht in 20 Jahren ändert sich das, wenn sich die Dichte der Messtationen in den Alpen verhundertfacht hat, aber danach schaut es nicht aus. Und bei der heutigen Dichte helfen Dir bei dem kleinräumigen Wetter wie in den Alpen keine Supercomputer und auch keine KI aus der Zukunft. Ohne Messtationen hilft alle Rechenleistung nichts. Und wenn Du wüsstest wie ungenau (aus mathematischer Sicht) selbst die heutigen Modelle in alpinen Topographien arbeiten, würdest Du Dich auch nicht ausschliesslich darauf verlassen.
|
|
|
Ach weisst Du, "geglaubte" Ironie - selbst wenn mehrfach vorgetragen - ist mitnichten Ironie. Aber Du darfst selbstverständlich weiterhin glauben, was Du willst. Anstatt zu glauben, denke ich doch lieber.
|
|
|
Ja der Computer ist den Bergleuten überlegen, wenn es um grossräumige Vorhersagen im 10 bis 20km Raster geht...
Danke, damit kommen wir nach diesem Exkurs endlich wieder zurück zum Topic und Fragestellung nach großräumigen Vorhersagen und nicht nach Ruhpolding & Co... es ging um Alpen überfliegen und Vorhersagen der Tops und weniger um lokale Klimatologie in irgendwelchen Bergtälern...
|
|
|
Ja, aber in den Alpen werden die Tops eben vor allem im Sommer durch einzelne Täler oder (meterologisch) kleinräumige Entwicklungen definiert, die sich an der Topographie festhalten und nicht am 20km Raster. Und insbesondere kurzfristige Vorhersagen (Gewitter, Konvektion) schafft kein Computermodell (weil eben die lokalen Daten fehlen) , der Mensch aber durch Beobachtung selbst über mehrere 10km und das auch noch zeitlich und räumlich recht genau aufgelöst. Also sind wir immer noch beim Thema geblieben, und den Threadersteller hat es ja gerade kalt erwischt weil er auf die berechneten Wettermodelle gebaut hat und nicht die Wetterberatung angerufen hat.
|
|
|
Ja, ein 20 km Raster ist sicher zu grob, da stimme ich überein. Ein NEMS mit 4 km oder ein COSMO-DE Vorhersagemodell mit sogar 2,8 km (oder künftige Modelle mit noch kleineren Rastern) erreichen eine hinreichende Qualität. Da bedarf es nicht unbedingt überall hunderte von Meßstationen.
Nach so viel "glauben" und "denken" beglückt uns vielleicht ein Meteorologe mit "wissen"?
|
|
|
Denken….. meinen……glauben,
glauben an selbst ernannte Sachverständige Gurus und Scharlatane
ist die neue Form der Dummheit.
Zitat aus Festvortrag an TU-München
|
|
|
@teejay:
Du kannst das Raster beliebig auch beim GFS wählen, es wird jedoch nicht gemacht da das numerische Modell dann instabil wird und die Kalibrierungs- und Verifizierungsdaten fehlen (die eben aus den Messtationen kommen). Willst Du ein kleineres Raster brauchst Du auch ein dichteres Messnetzwerk um die Numerikmodelle zu prüfen. Und je uneinheitlicher die Topographie, desto höher ist die erforderliche Messdatendichte (und die steigt nicht linear an). Dafür brauchst Du übrigens keinen Metereologen, sondern einen Physiker und einen Numeriker. Erstere stellen die Modelle auf, zweitere sorgen dafür dass man sie auch berechnen kann.
Also auch Deine engmaschigen Modelle helfen Dir in den Alpen nicht ohne Messdaten. Du berechnest nur eine Scheinwelt.
|
|
|
Da ist alles richtig. Ich denke aber auch, daß in den heutigen Modellen noch Luft "nach oben" ist wenn zum einen die Fortschritte der letzten Jahre was Machine Learning hinzukommen und zweitens die Rechnerkapazitäten exponentiell weiter steigen. Das Moorsche Gesetz ist trotz aller Unkenrufe ja noch immer nicht widerlegt. Wer hätte noch vor 5 Jahren gedacht, daß eine KI im Hintergrund für einen Anrufe tätigt so wie es Google Duplex zuletzt demonstrierte.
|
|
|
Und ich denke, daß Computermodelle in Kombination mit KI, hinreichender Datenbasis und verteilter Rechenpower jeden Erfahrungwerten und Beobachtungen von Bergsteigern oder Almhirten (oder Luftfahrern) überlegen sind.
Verbesserte Modelle: Ja Hinreichende Datenbasis (also Mesststationen, langjährige Aufzeichnungen): Ja Verteilte Rechenpower: Jein. Ob verteilt oder zentral spielt für das Ergebnis keine Rolle. Die Power muss nur da sein.
Nur mit KI wäre ich vorsichtig. Die publizierten Ergebnisse im Bereich Spiele (Google) oder Sprache (Google, aber auch andere) sind mit erheblichem Aufwand entstanden, den die Firmen leider nicht genau offenlegen. Da steckt einige Zeit an Forschung/Suche nach dem "richtigen" Modell für das Neuronale Netz (Generelle Struktur, Anzahl Schichten/Faltungen/Neuronen pro Schicht, ...), der geeignetsten Abbildung der Daten auf die Eingangsparameter und die geeigneten Ausgabewerte drin. Nicht zu vergessen die Regeln für Training und Test sowie die Suche nach dem passenden Lernverfahren. Und das ist keinesfalls mal eben so schnell mit einem generalistischen Ansatz lösbar. Vieles bleibt Handarbeit und Trial and Error bis ein konkretes Netz für ein konkretes Problem eine akzeptable Lösung liefert. Die Rechenpower und die Werkzeuge dafür verbessern sich rasant. Aber die grundlegende Theorie dahinter hat sich nur wenig weiterentwickelt. Hier ein neues Lernverfahren, da eine neue Netzstruktur (zu "meiner Zeit" (tm) gab es noch keine gefalteten Netze), und viele einzelne kleine und große "Showcases". Auch für Wettermodelle könnte man einen Einsatz von KI andenken, klar. Aber den Aufwand dafür muss auch mal jemand finanzieren.
Olaf
|
|
|
Mir kommt diese Technikgläubigkeit wirklich lustig vor. Ich erinnere mich noch an 1999 wo ein nicht gerade unbekannter Konzern den Kühlschrank mit Internetverbindung vorstellte, der genau weiss, wann er Milch be stellen soll, d amit sie nicht alle wird.
Bis heute sind die Kühlschränke offline und selbst die Google KI ist nicht in der Lage, die richtige Menge an Milch zu bestellen, damit ich weder zu viel noch zuwenig Milch habe.
Aber die Google KI kann zumindest den Milchmann anrufen, wenn ich ihr vorher gesagt habe wieviel Milch ich brauche. Ist doch was, zwar nichts was mich aus den Latschen haut, aber immerhin medienwirksam.
|
|
|
Eine gesunde Portion Misstrauen gegenüber der Technik (trotz Fan von Airbus fbw) ist mMn im Flugzeug genauso wichtig wie in zunehmendem Maße den "autonom fahrenden" PKWs. Es wird wohl noch einige typische Unfälle benötigen bis der Tec-Freak erkennt, dass noch nicht alle Eventualitäten programmiert wurden und daher ein Nickerchen bei Tempo 140 nicht die beste Idee ist.
|
|
|
d.h. heisst nicht "typische Unfälle" sondern "Selektion" und ist natürlicher Bestandteil der Evolution (der autonomen Fahrzeuge / Menschheit) ;-)
PS: als Belohnung für solche Spitzenleistungen gibt es ja den Darwin Award. Gerade topaktuell auch zwei Piloten unter den Preisträgern.
|
|
|
Einen Satz zu Deinem Einwand:
Verteilte Rechenpower: Jein. Ob verteilt oder zentral spielt für das Ergebnis keine Rolle. Die Power muss nur da sein
Wir bewegen uns beim Wetter bei nicht-linearen, chaotischen Systemen. Allein vom Ansatz her, erscheinen mir daher zentrale Systeme und Modelle wenig geeignet, diese zu simulieren.
|
|
|
Wir bewegen uns beim Wetter bei nicht-linearen, chaotischen Systemen. Allein vom Ansatz her, erscheinen mir daher zentrale Systeme und Modelle wenig geeignet, diese zu simulieren.
Das mathematische Modell und die physische Architektur eines Rechners müssen aber nicht identisch sein. Du kannst nicht-lineare, chaotische Systeme grundsätzlich genauso gut auf einem Numbercruncher aus der Top500-Liste wie über ein global verteiltes Netz an PCs und eine koordinierende Applikation (á la Seti@home oder ähnlichem) berechnen. Wichtig ist die Software, die die jeweilige Architektur möglichst effizient ausnutzt. Gut, auch die aktuellen Top500-Kandidaten haben natürlich tausende Rechenkerne und zusätzlich noch 10.000e Tesla V100 Chips. Auch das ist natürlich eine in gewissem Sinne "verteilte" Rechenpower. Stimmt natürlich. Aber eben an einem zentralen Ort. Und da dürften dann die Latenzen so niedrig sein, dass ein global verteiltes Netz von Rechnern deutlich mehr Rechenkerne aufweisen müsste, um auf die gleiche Gesamtperformance zu kommen. Ich muss aber zugeben, dass ich in dem Thema kein Spezialist bin.
Olaf
|
|
|
Bei Wetterlagen die von blue/ blue abweichen und die Pässe unsicher sind, gebe ich bei Alpenquerungen immer Pireps an z.B. Innsbruck Approch ab. Die beinhalten: Status der Pässe und Tops bzw. cloudbase, eventuell auch Wind.
Wenn ich single engine, egal ob Piston oder Turbine, in den Alpen on top bei einem Overcast gehe, fliege ich immer die Passrouten peinlichst genau ab.
Im Falle eines Engine failiure, habe ich dann ein Tal unter mir, ohne mit Cumulus Granitus in Berührung zu kommen. Der Plan ist dann in den Wind zu drehen und über dem Tal mit wenig Groundspeed zu sinken.
Letztes WE, an dem auch Manfed der den Thread gestartet hat, geflogen ist, stimmten die Vorhersagen nicht. Allein schon der Blick auf das bevorstehende Wetter von Höhe Biberach aus, veranlasste mich den Umweg über das Rheintal / Alrberg / Reschen zu fliegen. Das ging dann auch in FL 120, während weiter im Osten die Wolken bis auf 160 gingen. Auch waren, wie oft, direkt über den geflogenen Tälern Löcher in der Bewölkung.
Ein Umweg von 15 Minuten, der sich aber meiner Meinung nach lohnt.
|
|
|
Hi, läuft bei dir synthetische Sicht auf irgendeinem Bildschirm mit?
|
|
|
Wenn ich single engine, egal ob Piston oder Turbine, in den Alpen on top bei einem Overcast gehe, fliege ich immer die Passrouten peinlichst genau ab.
Man muss sich schon fragen, ob ein solches Vorgehen - und der damit verbundene Umweg und somit die zusätzlich über den Alpen verbrachte Zeit - nicht die Wharscheinlichkeit eines Engine-Failures mehr erhöht, als es die Überlebenswahrscheinlichkeit für ebenjenen Fall verbessert.
|
|
|
Natürlich ist die einzige Strategie beim Motorausfall über den Alpen in ein Tal zu gleiten.
Fliege ich knapp über dem Terrain, muss ich hierzu nahe bei den Tälern und Pässen bleiben.
Fliege ich in großer Höhe (FL250 oder höher), habe ich genügend Abstand, in ein Tal zu gleiten, d.h. ich benötige nur die entsprechende Karteninformation und mentale Vorbereitung.
Irgendwie logisch, oder?
|
|
|
Mit dieser Logik müsste man Eisenbahnübergänge mit Höchstgeschwindigkeit überqueren um die Zeit auf den Schienen zu minimieren.
Verbesserte Landemöglichkeiten aufgrund des Umwegs sind sicherlich empfehlenswert, ein Triebwerksausfall auf der Direttissima muss sich nicht unbedingt langfristig ankündigen.
|
|
|
Wenn ich single engine, egal ob Piston oder Turbine, in den Alpen on top bei einem Overcast gehe, fliege ich immer die Passrouten peinlichst genau ab.
Welche Turbine bzw. LFZ fliegst du? In welcher Höhe? IFR oder VFR? Falls IFR, wie genau planst du das??
|
|
|
Sven,
die Kodiac hat SV. Das ist aber relativ nutzlos, von oben sieht man da keine Täler. Ich fliege nach der GPS Karte.
Ich hab das schon ein paar Mal simuliert. SV ist ok wenn man dan weit unten ist. Sonst Terrain und Täler mit Flüssen, da die meistens nicht durch Tunnels fliessen.
@ Mario
Husky SEP Immer Talrouten on Top
SM1019A SET below FL 140 immer Talrouten on Top
Ul Pocket Rocket ( SET ) wenn unter FL160 Talrouten on top
Kodiak 100 meistens below Fl160 in der Nähe der Talrouten wenn on top
PC12 wenn unter FL 180 in der Nähe der Talrouten wenn on top
On top immer VFR wegen den Talrouten wenns danach IFR weitergehen soll Z Flugplan bis nach den Alpen
@ Florian
um die Zeit zu minimieren haben wir jetzt noch eine F104 bestellt. Mit der gehts dann ballistisch bis auf FL620, auch um Eurocontrolgebühren zu sparen.
|
|
|
Ja der ort ist natürlich zentral... ich denke wir meinen das gleiche...
|
|
|
|
29 Beiträge Seite 1 von 2
1 2 |
⇢
|
|