Claude: Anthropic schwächt Sicherheitsversprechen

sexismus medizin
Winter-Paralympics 2026 – Winter-Paralympics 2026: Alle Infos zu Mailand & Cortina

Das KI-Unternehmen Anthropic, das sich bisher als besonders sicherheitsbewusst präsentierte, rudert zurück: Es verzichtet auf sein zentrales Versprechen, nur solche KI-Systeme zu trainieren, bei denen die Wirksamkeit der Sicherheitsmaßnahmen im Vorfeld garantiert werden kann. Das berichtet das Time Magazine exklusiv.

Symbolbild zum Thema Claude
Symbolbild: Claude (Bild: Picsum)

Hintergrund: Anthropic und die KI-Sicherheit

Anthropic hat sich seit seiner Gründung einen Namen gemacht, indem es einen starken Fokus auf die Sicherheit und ethische Entwicklung von KI-Systemen legte. Das Unternehmen entwickelte Claude, ein KI-Modell, das als sicherer und vertrauenswürdiger als andere Modelle auf dem Markt positioniert wurde. Ein Kernstück dieser Strategie war die «Responsible Scaling Policy» (RSP), die das Versprechen enthielt, keine KI-Modelle zu veröffentlichen, wenn Anthropic keine angemessenen Risikominderungen garantieren konnte.

Dieses Versprechen sollte sicherstellen, dass die KI-Systeme von Anthropic nicht für schädliche Zwecke missbraucht werden können und dass potenzielle Risiken frühzeitig erkannt und minimiert werden. Anthropic positionierte sich damit als verantwortungsbewusstes Unternehmen, das dem Marktdruck widersteht, potenziell gefährliche Technologien zu schnell zu entwickeln. (Lesen Sie auch: Skiflug-Weltcup in Kulm: Rydzek überzeugt bei Premiere)

Aktuelle Entwicklung: Aufgabe des Sicherheitsversprechens

Nun hat Anthropic jedoch beschlossen, die RSP grundlegend zu überarbeiten. Wie das Time Magazine berichtet, beinhaltet diese Entscheidung auch die Streichung des Versprechens, keine KI-Modelle zu trainieren, wenn das Unternehmen die Risiken nicht im Vorfeld ausreichend minimieren kann. Jared Kaplan, Chief Science Officer von Anthropic, erklärte gegenüber dem Time Magazine, dass es angesichts des rasanten Fortschritts im Bereich der KI nicht sinnvoll sei, einseitige Verpflichtungen einzugehen, wenn die Konkurrenz ungebremst voranschreite.

Die neue Version der RSP beinhaltet laut Time Magazine Verpflichtungen zu mehr Transparenz über die Sicherheitsrisiken von KI. Anthropic will demnach künftig zusätzliche Informationen darüber veröffentlichen, wie die eigenen Modelle in Sicherheitstests abschneiden. Zudem soll sichergestellt werden, dass die Sicherheitsbemühungen mit denen der Wettbewerber mithalten oder diese sogar übertreffen. Informationen zur verantwortungsvollen Skalierung von KI-Modellen bietet auch das Responsible Scaling Policy von Anthropic.

Die Entscheidung von Anthropic, das Sicherheitsversprechen aufzugeben, kommt inmitten von Auseinandersetzungen mit dem US-Verteidigungsministerium. Wie CNN berichtet, hat Anthropic ein Angebot des Pentagons abgelehnt. Anthropic war nicht bereit, die Forderungen des Pentagons nach unbeschränktem Zugang zu seinen KI-Modellen zu erfüllen, da das Unternehmen Bedenken hinsichtlich des potenziellen Missbrauchs der Technologie hegte. (Lesen Sie auch: Wahl O Mat: Baden-Württemberg: -O- zur Landtagswahl…)

Reaktionen und Einordnung

Die Aufgabe des Sicherheitsversprechens durch Anthropic hat in der KI-Community für Diskussionen gesorgt. Einige Experten äußern Bedenken, dass dies ein Schritt in Richtung einer weniger verantwortungsvollen Entwicklung von KI-Systemen sein könnte. Andere argumentieren, dass es in einem wettbewerbsintensiven Markt notwendig sei, flexibel zu sein und sich an die Gegebenheiten anzupassen. Es wird befürchtet, dass ein zu starker Fokus auf Sicherheit die Innovation behindern und Anthropic gegenüber der Konkurrenz benachteiligen könnte.Das Unternehmen betont, dass es weiterhin bestrebt ist, verantwortungsvolle KI zu entwickeln, und dass die neue RSP dies widerspiegelt. Kritiker bleiben jedoch skeptisch und fordern mehr Transparenz und Rechenschaftspflicht.

Claude: Was bedeutet die Änderung für die Zukunft?

Die Entscheidung von Anthropic, das Sicherheitsversprechen aufzugeben, wirft Fragen nach der Zukunft von Claude und anderen KI-Modellen auf. Wird die Sicherheit von KI-Systemen künftig weniger priorisiert? Werden Unternehmen gezwungen sein, Kompromisse zwischen Sicherheit und Innovation einzugehen? Die Antworten auf diese Fragen werden maßgeblich davon abhängen, wie sich der Markt entwickelt und welche regulatorischen Rahmenbedingungen geschaffen werden.

Detailansicht: Claude
Symbolbild: Claude (Bild: Picsum)

Es ist denkbar, dass die Aufgabe des Sicherheitsversprechens durch Anthropic einen Dominoeffekt auslöst und andere Unternehmen dazu veranlasst, ihre eigenen Sicherheitsstandards zu lockern. Dies könnte zu einem Wettlauf nach immer leistungsfähigeren KI-Modellen führen, bei dem die Sicherheit auf der Strecke bleibt. Andererseits könnte die Entscheidung von Anthropic auch dazu beitragen, eine realistischere und pragmatischere Herangehensweise an die KI-Sicherheit zu fördern. (Lesen Sie auch: Stuttgarter Zeitung: Flughafen Stuttgart: Sicherheitsalarm)

Letztendlich wird es entscheidend sein, dass Unternehmen, Regierungen und die Zivilgesellschaft zusammenarbeiten, um sicherzustellen, dass KI-Systeme verantwortungsvoll entwickelt und eingesetzt werden. Nur so kann das volle Potenzial dieser Technologie ausgeschöpft werden, ohne unvertretbare Risiken einzugehen. Die KI-Strategie der Bundesregierung versucht, einen solchen Rahmen zu schaffen.

R

Über den Autor
✓ Verifiziert

Redaktion

Online-Redakteur

Unser erfahrenes Redaktionsteam recherchiert und verfasst täglich aktuelle Nachrichten und Hintergrundberichte zu relevanten Themen.

📰 Redaktion
✓ Geprüfter Inhalt

Häufig gestellte Fragen zu claude

Chronologie wichtiger Ereignisse rund um Claude

DatumEreignis
2023Anthropic verpflichtet sich zur «Responsible Scaling Policy» (RSP) mit dem Versprechen, keine KI-Modelle ohne garantierte Risikominderung zu veröffentlichen.
2024Anthropic überarbeitet die RSP und streicht das zentrale Sicherheitsversprechen.
26. Februar 2026Berichte über die Aufgabe des Sicherheitsversprechens durch Anthropic werden öffentlich.
Illustration zu Claude
Symbolbild: Claude (Bild: Picsum)

Be the first to comment

Leave a Reply

Your email address will not be published.


*