Der Think Tank für Digitale Ethik

Dario und Daniela, die smarten Köpfe hinter dem KI-Tool Claude

Das KI-Tool Claude wird mir immer sympathischer! Das hat auch mit Dario und Daniela Amodei zu tun. Die Geschwister haben dem Unternehmen von ChatGPT den Rücken gekehrt, denn sie wollen es «besser» machen.

Beide arbeiteten früher bei OpenAI: Dario arbeitete an der Entwicklung des Sprachmodells GPT. Daniela war für die Sicherheit der Sprachmodelle zuständig.

Doch zunehmend kamen ethische Bedenken auf. «Wir hatten Bedenken hinsichtlich der Richtung der Firma», sagt Daniela Amodei heute. «Wir wollten wirklich sichergehen, dass diese Werkzeuge verantwortungsvoll und verlässlich verwendet werden.»

Deshalb gründeten sie 2021 das Startup Anthropic. Mit ihrem eigenen Sprachmodell bzw. KI-Tool Claude möchten sie dazu beitragen, dass KI den Menschen und der Gesellschaft hilft, sich zu entfalten.

🔎 Beim Training des KI-Modells kommt die hauseigene Methode «Constitutional AI» zum Einsatz. Sie soll KI-Systeme mit menschlichen Absichten in Einklang bringen (Alignment), damit sie auf Fragen und Aufgaben in einer vorhersehbaren Weise anhand von Richtlinien und Leitprinzipien reagieren.

🔎 Dies geht nicht auf Kosten der Leistungsfähigkeit – im Gegenteil! Die KI-generierten Antworten zählen heute qualitativ zu den besten. In aktuellen Vergleichen bezüglich Leistung liefern sich Claude und ChatGPT ein Kopf-an-Kopf-Rennen.

🔎 Und weil das alles viel kostet: In der Zwischenzeit gehören nahmhafte Personen sowie grosse Tech-Konzerne wie Amazon, Salesforce, SAP und Google zu den Investoren von Antrophic.

«Wir versuchen, mit gutem Beispiel voranzugehen», sagt Dario Amodei, «aber dafür brauchen wir auch ein gewisses Gewicht in der Branche.»

Das «Time»-Magazin nannte das Startup jüngst eine der 100 wichtigsten Firmen der Welt und zählte die Geschwister Amodei zu den 100 wichtigsten Persönlichkeiten im Feld der KI.

Was für eine motivierende Geschichte! 🏆 🎉 Und eine grosse Motivation, mit dem KI-Tool Claude zu arbeiten oder es zumindest auszuprobieren. Zum Tool geht es hier: KI-Tool Claude

Und für alle, die sich für mit dem verantwortungsvollen Einsatz von KI-Tools oder mit KI-Richtlinien auseinandersetzen möchten: Ich biete zu diesen zwei Themen regelmässige Kurse an.

Hinweis: Anlass für diesen Post war der Artikel «Sie wollen KI moralischer machen» in der Printausgabe der NZZ vom 5. August 2024.

Bild: Antrophic