In einer überraschenden Entscheidung hat Google seine Verpflichtung zur Vermeidung von künstlicher Intelligenz (KI) für potenziell schädliche Anwendungen wie Waffen und Überwachung aus seinen „KI-Grundsätzen“ entfernt. Diese Entscheidung hat nicht nur innerhalb des Unternehmens, sondern auch in der globalen Tech- und Ethik-Community für Aufsehen gesorgt. Die ursprüngliche Version der KI-Grundsätze stellte klar, dass Google keine KI-Technologien für Waffensysteme oder Überwachungsmaßnahmen nutzen würde, die gegen international anerkannte Normen verstoßen. Diese Punkte sind jedoch nun aus den aktuellen Grundsätzen verschwunden, was auf eine bedeutende strategische Neuausrichtung des Unternehmens hindeutet.
picture alliance / | Daniel Kalker
Die Hintergründe der Entscheidung
Die Entscheidung, die Verpflichtung zu streichen, ist im Kontext eines zunehmend komplexen geopolitischen Umfelds zu sehen. Laut Demis Hassabis, CEO von Google DeepMind, gibt es „eine globale Konkurrenz um die Führungsposition in der KI, die im Zuge eines immer komplexeren geopolitischen Szenarios stattfindet.“ Google betont, dass der Nutzen von KI in Bereichen wie nationaler Sicherheit und globalem Wachstum über potenzielle Risiken gestellt wird. Dies ist ein deutlicher Schritt hin zu einer breiteren Akzeptanz von KI-Anwendungen durch Regierungen und Unternehmen, einschließlich solcher, die mit militärischen Anwendungen in Verbindung stehen.
Interne Reaktionen und Bedenken
Die Entscheidung hat innerhalb von Google für Kritik gesorgt. Schon früher hatte es Proteste gegeben, als das Unternehmen 2018 das Projekt Maven beendete, bei dem KI genutzt wurde, um Drohnenaufnahmen für das US-Militär zu analysieren. Mehr als 3.000 Mitarbeiter hatten damals einen offenen Brief unterzeichnet, der das Unternehmen aufforderte, sich aus militärischen Projekten zurückzuziehen. Trotz dieser internen Widerstände hat Google seine Bereitschaft, mit Regierungen zusammenzuarbeiten, wiederholt bekräftigt, was den Druck auf die Führungskräfte im Unternehmen erhöht hat.
Zuletzt hatte Google auch das Projekt Nimbus verteidigt, ein Vertrag mit der israelischen Regierung, der KI-gestützte Cloud-Dienste bereitstellt. Dabei wurde jedoch bekannt, dass Google dabei KI-Tools für das israelische Militär bereitstellt, die unter anderem zur Bildkategorisierung und Objektverfolgung verwendet werden, was zu Besorgnis über mögliche Menschenrechtsverletzungen führte.
Globale Auswirkungen und ethische Fragestellungen
Die Entscheidung von Google, die Verpflichtung zur Vermeidung von KI für militärische und sicherheitsrelevante Zwecke aufzugeben, hat weitreichende ethische und globale Konsequenzen. Die Frage, wie Unternehmen wie Google die Verantwortung für den Einsatz ihrer Technologien übernehmen sollten, wird immer drängender.
Leave a comment