Künstliche Intelligenz ist längst unter uns: Im Navi lässt sie uns Staus umfahren, in Dating-Apps die große Liebe finden, sie schlägt uns Produkte oder Filme vor. Aber zunehmend ist KI auch an schwierigeren Entscheidungen beteiligt: In China zum Beispiel kommt sie in Gerichtsprozessen zum Einsatz. Viele Unternehmen lassen Algorithmen Bewerbungen aussortieren. Und Sicherheitsbehörden weltweit benutzen künstliche Intelligenz, um Menschen in Echtzeit zu identifizieren. Unbestechlich und rein objektiv oder voreingenommen? Können wir uns eigentlich sicher sein, dass dabei alles korrekt abläuft, nach unseren moralischen Vorstellungen? Daran haben Forschende erhebliche Zweifel. Annika Buchholz vom Max-Planck-Institut für Intelligente Systeme zum Beispiel sagt: „Die KI ist genauso rassistisch wie wir Menschen“.
Das liege an den Daten über Menschen, mit der die KI arbeitet. Die stammen aus der Offline-Welt. Die Diskriminierung, die es dort gibt, ist in die Daten, mit der die KI rechnet, eingesc
Autant ne pas se voiler la face : tout le monde a des préjugés. Qu’il s’agisse de pourvoir un poste, d’octroyer un crédit ou de prononcer une peine de prison, comment avoir la certitude de prendre des décisions rationnelles ? Ne serait-il pas plus sage de s’en remettre à l’intelligence artificielle, technologie déjà déployée dans de nombreux cas avec des résultats surprenants ?
Admitámoslo: todas las personas tenemos prejuicios. Ya se trate de seleccionar a alguien para un puesto de trabajo, de conceder un préstamo en el banco o de dictar una sentencia de prisión, ¿cómo podemos asegurarnos de que estamos tomando decisiones racionales? ¿No sería más sensato confiar en la inteligencia artificial, una tecnología ya desarrollada y, en teoría, más objetiva?