Eine Software der TU München wägt Entscheidungen differenzierter ab und will Risiken fair verteilen.
Eine Forschungsgruppe aus Deutschland hat einen Vorschlag für einen Algorithmus entwickelt, der Fahrmanöver von autonomen Autos einmal so steuern soll, dass das Risiko bei nicht abzuwendenden Unfällen möglichst fair verteilt wird.
Es handle sich um den ersten ethischen Algorithmus, der den Anforderungen einer EU-Expertengruppe gerecht werde. Die Gruppe schlägt dafür vor, dass in riskanten Situationen fünf Prinzipien gegeneinander abgewogen werden sollten: das akzeptable Maximalrisiko eines Manövers, den besonderen Schutz der gegebenenfalls am schlimmsten Betroffenen, die Gleichbehandlung aller Menschen, die Minimierung des Gesamtrisikos und die Eigenverantwortung der Verkehrsteilnehmenden.
Die genaue Gewichtung der Prinzipien müsse gesellschaftlich geklärt werden, fordern die drei.
Quelle: Technische Universität München