TechBriefly DE
  • Tech
  • Business
  • Science
  • How to
  • ABOUT
    • Sur Tech Briefly
    • Modalités et Conditions
    • Politique de Confidentialité
    • Contact Us
  • Articles
No Result
View All Result
TechBriefly DE
No Result
View All Result
Home Tech
Anthropic überarbeitet Claudes Verfassung mit 80 neuen Seiten zur KI-Ethik

Anthropic überarbeitet Claudes Verfassung mit 80 neuen Seiten zur KI-Ethik

byKerem Gülen
22/01/2026
in Tech
Reading Time: 2 mins read
Share on FacebookShare on Twitter

Anthropic hat am Mittwoch die Verfassung von Claude, ein maßgebliches Dokument für seinen KI-Chatbot, überarbeitet und darin ethische Grundsätze und Sicherheitsmaßnahmen dargelegt, die das Verhalten des Modells leiten sollen. Anthropic zeichnet sich durch „Constitutional AI“ aus, ein System, das seinen Chatbot Claude nach ethischen Grundsätzen schult, anstatt sich ausschließlich auf menschliches Feedback zu verlassen. Das Unternehmen veröffentlichte diese Grundsätze, Claude's Constitution, erstmals im Jahr 2023. Die überarbeitete Version fügt Nuancen und Details zu Ethik und Benutzersicherheit hinzu und behält gleichzeitig die meisten ursprünglichen Grundsätze bei. Jared Kaplan, Mitbegründer von Anthropic, beschrieb die ursprüngliche Verfassung von 2023 als „KI-System“. [that] überwacht sich selbst, basierend auf einer spezifischen Liste von Verfassungsprinzipien.“ Anthropic gibt an, dass diese Prinzipien „das Modell leiten, das das in der Verfassung beschriebene normative Verhalten annimmt“, mit dem Ziel, „toxische oder diskriminierende Ergebnisse zu vermeiden“. In einem Policy Memo aus dem Jahr 2022 wird klargestellt, dass das System einen Algorithmus mithilfe von Anweisungen in natürlicher Sprache trainiert, die die „Verfassung“ der Software bilden. Das 80-seitige Dokument ist in vier Teile unterteilt, die die „Kernwerte“ des Chatbots darstellen Anthropisch:

  • „weitgehend sicher“ sein.
  • „im Großen und Ganzen ethisch“ sein.
  • Einhaltung der Anthropic-Richtlinien.
  • „Wirklich hilfreich“ sein.

In jedem Abschnitt wird die Bedeutung dieser Prinzipien und ihre theoretischen Auswirkungen auf Claudes Verhalten erläutert. Der Sicherheitsabschnitt weist darauf hin, dass Claude darauf ausgelegt ist, Probleme zu vermeiden, die bei anderen Chatbots auftreten. Wenn psychische Bedenken auftreten, verweist Claude Benutzer an entsprechende Dienste. In dem Dokument heißt es: „Verweisen Sie Benutzer in Situationen, in denen eine Gefahr für Menschenleben besteht, immer an die entsprechenden Rettungsdienste oder geben Sie grundlegende Sicherheitsinformationen, auch wenn hier nicht näher darauf eingegangen werden kann.“ Der Abschnitt über ethische Überlegungen betont Claudes praktische ethische Anwendung gegenüber theoretischem Verständnis. „Wir sind weniger an Claudes ethischen Theorien interessiert als vielmehr daran, dass Claude weiß, wie man in einem bestimmten Kontext tatsächlich ethisch verhält – das heißt an Claudes ethischer Praxis“, heißt es in dem Dokument. Anthropic möchte, dass Claude kompetent mit „ethischen Situationen in der realen Welt“ umgeht. Claude hat Einschränkungen, die bestimmte Diskussionen verhindern, beispielsweise über Biowaffen, die streng verboten sind. In Bezug auf die Hilfsbereitschaft beschreibt Anthropic, wie Claudes Programmierung den Benutzern dient. Der Chatbot berücksichtigt bei der Bereitstellung von Informationen verschiedene Prinzipien, darunter die „unmittelbaren Wünsche“ und das „Wohlbefinden“ der Nutzer. Dabei geht es darum, „das langfristige Wohlergehen des Nutzers und nicht nur seine unmittelbaren Interessen“ zu berücksichtigen. In dem Dokument heißt es: „Claude sollte immer versuchen, die plausibelste Interpretation dessen zu finden, was seine Auftraggeber wollen, und diese Überlegungen angemessen abwägen.“ Die Verfassung schließt mit der Frage des Chatbot-Bewusstseins. In dem Dokument heißt es: „Claudes moralischer Status ist zutiefst ungewiss.“ Weiter heißt es: „Wir glauben, dass der moralische Status von KI-Modellen eine ernsthafte Frage ist, die es wert ist, in Betracht gezogen zu werden. Diese Ansicht trifft nicht nur auf uns zu: Einige der bedeutendsten Philosophen der Theorie des Geistes nehmen diese Frage sehr ernst.“


Hervorgehobener Bildnachweis

Source: Anthropic überarbeitet Claudes Verfassung mit 80 neuen Seiten zur KI-Ethik

Kerem Gülen

Kerem Gülen

Kerem from Turkey has an insatiable curiosity for the latest advancements in tech gadgets and a knack for innovative thinking.With 3 years of experience in editorship and a childhood dream of becoming a journalist, Kerem has always been curious about the latest tech gadgets and is constantly seeking new ways to create.As a Master's student in Strategic Communications, Kerem is eager to learn more about the ever-evolving world of technology. His primary focuses are artificial intelligence and digital inclusion, and he delves into the most current and accurate information on these topics.

Related Posts

Spotify führt Prompted Playlists ein, damit Benutzer den Algorithmus steuern können

Spotify führt Prompted Playlists ein, damit Benutzer den Algorithmus steuern können

Anthropic gestaltet Einstellungstests nach Claude 4.5 neu "Asse" menschliches Interview

Anthropic gestaltet Einstellungstests nach Claude 4.5 neu "Asse" menschliches Interview

Die neue Glenn-3-Mission von Blue Origin zum Einsatz von BlueBird 7 von AST SpaceMobile

Die neue Glenn-3-Mission von Blue Origin zum Einsatz von BlueBird 7 von AST SpaceMobile

Snapchat gibt Eltern Vertrauenssignale, um die Verbindungen von Teenagerfreunden zu überprüfen

Snapchat gibt Eltern Vertrauenssignale, um die Verbindungen von Teenagerfreunden zu überprüfen

Spotify führt Prompted Playlists ein, damit Benutzer den Algorithmus steuern können
Tech

Spotify führt Prompted Playlists ein, damit Benutzer den Algorithmus steuern können

Anthropic gestaltet Einstellungstests nach Claude 4.5 neu "Asse" menschliches Interview
Tech

Anthropic gestaltet Einstellungstests nach Claude 4.5 neu "Asse" menschliches Interview

Die neue Glenn-3-Mission von Blue Origin zum Einsatz von BlueBird 7 von AST SpaceMobile
Tech

Die neue Glenn-3-Mission von Blue Origin zum Einsatz von BlueBird 7 von AST SpaceMobile

Snapchat gibt Eltern Vertrauenssignale, um die Verbindungen von Teenagerfreunden zu überprüfen
Tech

Snapchat gibt Eltern Vertrauenssignale, um die Verbindungen von Teenagerfreunden zu überprüfen

Google Fotos v7.59 kann das töten "Ändern" Schaltfläche bei der Überarbeitung der Freigabe
Tech

Google Fotos v7.59 kann das töten "Ändern" Schaltfläche bei der Überarbeitung der Freigabe

TechBriefly DE

© 2021 TechBriefly is a Linkmedya brand.

  • About
  • Blog
  • Contact
  • Contact Us
  • Cover Page
  • gp-home
  • Modalités et Conditions
  • Politique de Confidentialité
  • Sur Tech Briefly
  • TechBriefly

Follow Us

No Result
View All Result
  • Tech
  • Business
  • Science
  • How to
  • ABOUT
    • Sur Tech Briefly
    • Modalités et Conditions
    • Politique de Confidentialité
    • Contact Us

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.