Federated Learning ist leider keine ideale Lösung, da damit entwickelte Prognose-Algorithmen zwar zufreidenstllende Ergebnisse liefern mögen, jedoch die Transparenz der Verfahren - d.h. was wird hier genau wie verarbeitet ? - leidet. Bei einer zentralen Verarbeitung können etwa Diskriminierungen überprüft werden - z.B. in dem alle eingehenden Merkmale konstant gehalten werden und etwa nur das Geschlecht oder auch Alterseinstufungen für alle gleichermaßen umgeschaltet werden. In Federated Learning liegen die Original-Datensätze gar nicht mehr vor. Antidiskriminierungsprüfungen sind nicht mehr möglich. Wir bevorzugen daher Methoden gesetzeskonformer Anonymisierung. Bei letzterem ist natürlich richtig, dass eine endeutige Reidentifikation der Person rein theoretisch und mit erheblichem Aufwand möglich ist. Sie ist jedoch untersagt und dies wird durch Tracking der Analyse- und Modellierungstätigkeit stichprobenartig überprüft. In diesem Zusammenhang verstehe ich die aktuelle Diskussion nicht wirklich. Man könnte genauso gut argumentieren, dass Verkehrsregeln und Tempobegrenzungsschilder unsinnig sind, weil eine Gesetzesüberschreitung gleichwohl möglich ist. Die Datenschutzgrundverordnung wäre dann das erste Gesetz, dass seine Verletzung durch eine Straftat selbst komplett ausschließt.