Dario Amodei, der Geschäftsführer von Anthropic, betont die Notwendigkeit, dass die Gesellschaft sich der möglicherweise katastrophalen Risiken bewusst wird, die durch leistungsstarke KI-Systeme entstehen können. In einem umfassenden Essay von fast 20.000 Wörtern skizziert Amodei die Gefahren, die drohen, wenn die Entwicklung dieser Technologien nicht kontrolliert wird. Dazu gehören weitreichende Arbeitsplatzverluste und die Möglichkeit von bioterroristischen Anschlägen.
Er warnt: „Die Menschheit steht am Rande, eine nahezu unvorstellbare Macht zu erlangen, und es ist unklar, ob unsere sozialen, politischen und technologischen Systeme die Reife besitzen, um damit umzugehen.“ Dieses Essay ist ein eindringlicher Appell von einem der einflussreichsten Unternehmer in der KI-Branche, der darauf hinweist, dass die bestehenden Sicherheitsvorkehrungen rund um künstliche Intelligenz unzureichend sind, wie der Financial Times berichtet.
Die Gefahren von mächtiger KI
Amodei beschreibt die potenziellen Risiken, die mit der Entwicklung dessen einhergehen, was er „mächtige KI“ nennt – Systeme, die „deutlich fähiger als jeder Nobelpreisträger, Staatsmann oder Technologieexperte“ sein könnten und seiner Ansicht nach bereits in den nächsten „Jahren“ entstehen könnten. Eine der grössten Gefahren besteht darin, dass Einzelpersonen in der Lage sein könnten, biologische Waffen zu entwickeln, die Millionen von Menschen töten können oder im schlimmsten Fall das gesamte Leben auf der Erde eliminieren.
„Eine problematische Person, die möglicherweise einen Schulschuss begeht, aber nicht in der Lage ist, eine Atomwaffe zu bauen oder Pest freizusetzen, wird auf das Niveau von jemandem angehoben, der über die Fähigkeiten eines promovierten Virologen verfügt“, warnt Amodei.
Kontrolle und autoritäre Regime
Er hebt auch das Risiko hervor, dass KI „außer Kontrolle gerät und die Menschheit übertrifft“, sowie die Möglichkeit, dass sie zur Stärkung autoritärer Regime und anderer böswilliger Akteure genutzt wird, was zu einer „globalen totalitären Diktatur“ führen könnte.
Amodei, dessen Unternehmen Anthropic einer der Hauptkonkurrenten von OpenAI – dem Schöpfer von ChatGPT – ist, hat sich mit David Sacks, einem prominenten Investoren in der KI- und Kryptowährungsbranche während der Trump-Administration, über die Richtung der amerikanischen Regulierung auseinandergesetzt. Zudem hat er die Pläne der Regierung, fortschrittliche KI-Chips an China zu verkaufen, mit dem Verkauf von Atomwaffen an Nordkorea verglichen.
Folgen der KI-Entwicklung
Im vergangenen Monat unterzeichnete Trump eine Exekutivverordnung, die die Bemühungen einzelner Bundesstaaten einschränkt, KI-Unternehmen zu regulieren. Letztes Jahr veröffentlichte er einen Aktionsplan, der darauf abzielt, Innovationen im Bereich KI in den USA zu beschleunigen. In seinem Essay warnt Amodei vor massiven Arbeitsplatzverlusten und einer „Konzentration wirtschaftlicher Macht“ in Silicon Valley infolge der KI-Entwicklung.
„Das ist die Falle: KI ist so mächtig, dass es für die menschliche Zivilisation extrem schwierig wird, irgendwelche Einschränkungen durchzusetzen“, fügt er in seinem Essay hinzu.
Implikationen für die Gesellschaft
In einem versteckten Hinweis auf die Kontroversen um das KI-Modell Grok von Elon Musk schreibt Amodei, dass „einige KI-Unternehmen besorgniserregende Nachlässigkeit hinsichtlich der Sexualisierung von Kindern in heutigen Modellen gezeigt haben, was mich daran zweifeln lässt, dass sie die Bereitschaft oder Fähigkeit haben werden, mit den Risiken der Autonomie in künftigen Modellen umzugehen.“
Die Bedenken hinsichtlich der Sicherheit von KI – einschließlich biologischer Waffen, autonomer Waffen und böswilliger staatlicher Akteure – stehen im Jahr 2023 im Mittelpunkt der öffentlichen Debatte, teilweise beeinflusst von Warnungen von Führungspersönlichkeiten wie Amodei. In diesem Jahr organisierte die britische Regierung einen Gipfel zur Sicherheit von KI in Bletchley Park, wo Staaten und Sicherheitslabore vereinbarten, gemeinsam zur Bekämpfung dieser Risiken zu arbeiten. Ein Folgegipfel ist für Februar in Indien geplant.
Politische Entscheidungen und Herausforderungen
Amodei kritisiert jedoch, dass politische Entscheidungen bezüglich KI zunehmend von dem Wunsch geleitet werden, von der neuen Technologie zu profitieren, anstatt die Risiken zu begrenzen. „Dieses Zögern ist bedauerlich, denn die Technologie selbst kümmert sich nicht darum, was modisch ist, und wir sind erheblich näher an einer realen Gefahr im Jahr 2026, als wir es 2023 waren“, schreibt er.
Amodei war einer der ersten Mitarbeiter von OpenAI, verließ das Unternehmen jedoch, um 2020 Anthropic nach einem Konflikt mit Sam Altman über die Richtung von OpenAI und die Sicherheitsvorkehrungen rund um KI mitzugründen. Anthropic führt Verhandlungen über eine Investitionsrunde von mindestens 25 Milliarden US-Dollar mit Gruppen wie Microsoft und Nvidia sowie mit Investoren wie dem staatlichen Fonds GIC aus Singapur, Coatue und Sequoia Capital, was das Unternehmen auf etwa 350 Milliarden Dollar bewerten würde.











