Max, Rolf,
Hackerethik gibt es. Diese folgt dem Mantra "Öffentliche Daten nützen, private Daten schützen".
Funktionsweisen von ILS, TCAS usw. gehören zu den öffentlichen Daten, da Sie Verkehrsinfrastruktur und damit uns alle betreffen. Selbstverständlich sollten diese Systeme sicher sein. Aber nicht, in dem man Ihre Funktionsweise geheim hält. Dieses "Sicherheitsmodell" nennt sich Security by Obscurity und funktioniert offensichtlich nicht. Beispiele dafür gehen in die Hunderte.
Ethisches Verhalten im Sinne der Hackerethik ist zum Beispiel Responsible Disclosure. Dabei wird dem Autor der Sicherheitslücke eine gewisse Zeit gegeben, die Sicherheitslücke abzustellen. Im IT-Umfeld sind das je nach den Umständen meist zwischen 1 Woche und 6 Monate. Danach wird die Lücke veröffentlicht, egal ob der Autor diese gefixt hat oder nicht. Dadurch wird Druck auf den Autor aufgebaut, die Lücke zeitnah zu fixen. Die Anwender werden informiert, in welcher Gefahr sie schwebten bzw. schweben (falls der Fehler nicht gefixt wird). Und nicht zuletzt ist das ein Pendant zu dem, was wir in der Fliegerei "Just Culture" nennen: Das öffentliche Aufarbeiten von Fehlern, damit andere daraus lernen können und diese Fehler hoffentlich weniger oft auftreten.
Im konkreten Fall der Papers (die ich jetzt noch nicht gelesen habe) wäre es wohl sinnlos gewesen, der ICAO oder wem auch immer eine 6-monatige Frist zum "fixen" der Probleme zu geben, angesichts der Verbreitung dieser Systeme und des hohen Aufwands zur Standardisierung bzw. zu Änderungen in diesen Standards. Umso wichtiger ist es, dass die Anwender (Piloten, Airlines, ...) um die Schwächen dieser Systeme wissen und das ILS eben nicht für "bare Münze" nehmen, sondern im Zweifelsfall mit einer zweiten Quelle gegenchecken (z.B. GPS, INS). Dazu liefern die Papers einen Beitrag.
Grüße
Jo