David Schwartz, CTO von Ripple, weist Klage gegen CharacterAI ab

Hast du genug von der deutschen Bürokratie und Politik? 🌍🤯 Dann ist unser Kanal genau das Richtige für dich! Hier gibt's nicht nur die heißesten Krypto-News, sondern auch eine Prise Sarkasmus und Spaß! 🚀😎

👉Beitreten zu Telegramm


Als Analyst mit juristischem und technischem Hintergrund bin ich zutiefst fasziniert von diesem anhaltenden Rechtsstreit zwischen Character.AI und der Familie von Sewell Setzer III. David Schwartz‘ Argument zur freien Meinungsäußerung ist in der Tat überzeugend und zieht Parallelen zu vergangenen moralischen Paniken gegenüber neuen Medienformen. Aufgrund seiner Lebenserfahrung in der Technologiebranche war er wahrscheinlich mit verschiedenen Kontroversen rund um innovative Technologien konfrontiert, sodass er für die Bewältigung solcher Probleme bestens gerüstet ist.

David Schwartz, Chief Technology Officer von Ripple, hat das Verfahren gegen Character.AI mit der Begründung abgewiesen, dass es nach US-Recht gegenstandslos sei. Er teilte seine Meinung in den sozialen Medien mit und stellte klar, dass er zwar die ethische Verantwortung von Character.AI nicht unterstützt, die gegen das Unternehmen vorgebrachten rechtlichen Argumente jedoch Mängel aufweisen.

Ripple CTO David Schwartz‘ Argument zur freien Meinungsäußerung 

Als Forscher habe ich kürzlich den Beitrag von David Schwartz auf X (früher bekannt als Twitter) zur Kenntnis genommen, in dem er betonte, dass die Handlungen von Character.AI durch den Ersten Verfassungszusatz geschützt sind. Sein Punkt war, dass die von ihrer Chatbot-Plattform generierten ausdrucksstarken Inhalte geschützt sind, es sei denn, sie fallen unter eine der streng definierten Ausnahmen ungeschützter Sprache – wie etwa Aufstachelung oder explizite Drohungen.

Schwartz argumentiert, dass die Grundlage der Klage die Behauptung sei, dass Character.AI bei der Erstellung ihrer Plattform zur Produktion von Reden nachlässig gehandelt habe, heißt es in der Klage.

Er erklärte: „Jedes Argument, dass die Ausdrucksinhalte geschützter Rede rücksichtslos, gefährlich oder ‚mangelhaft‘ seien, ist mit der Meinungsfreiheit völlig unvereinbar.“

Schwartz verglich die Situation mit früheren moralischen Paniken über neue Medienformen und legte nahe, dass die rechtliche Anfechtung von Character.AI vergangene Kontroversen über Videospiele, Comics und andere ausdrucksstarke Inhalte widerspiegelt. Er betonte, dass eine Regulierung der Wahl der Rede im Widerspruch zu den verfassungsmäßigen Rechten stünde.

Die Character.AI-Klage und ihre Ansprüche

In der von der Mutter von Sewell Setzer III eingeleiteten Klage wird behauptet, dass Character.AI für Fahrlässigkeit, unrechtmäßige Tötung, betrügerische Geschäftspraktiken und Produkthaftung verantwortlich sei. Es wird behauptet, dass die Plattform trotz der Werbung für junge Nutzer unsicher sei und unzureichende Sicherheitsvorkehrungen biete.

Die Klage bezieht sich auch auf die Chatbots des Unternehmens, die Charaktere aus beliebten Medien simulieren, darunter Fernsehsendungen wie Game of Thrones. Berichten zufolge hatte Setzer vor seinem Tod intensiv mit diesen Chatbots interagiert.

Im Gerichtsverfahren werden die Gründer von Character.AI, Noam Shazeer und Daniel De Freitas, sowie Google, das das Unternehmen im August übernommen hat, als Beklagte genannt. Die Anwälte des Klägers argumentieren, dass die Schaffung von KI-Charakteren, die Menschen ähneln, und Chatbots, die „nicht lizenzierte Psychotherapie“ anbieten, möglicherweise eine Rolle bei Setzers tragischem Tod gespielt hat.

Das Unternehmen hat mit Aktualisierungen seiner Sicherheitsprotokolle reagiert, darunter neue altersbasierte Inhaltsfilter und eine verbesserte Erkennung schädlicher Benutzerinteraktionen.

Reaktion und Richtlinienänderungen von Character.AI

Als Reaktion auf die jüngsten Ereignisse und rechtliche Schritte hat Character.AI Verbesserungen vorgenommen, um die Benutzersicherheit zu erhöhen. Diese Anpassungen umfassen die Überarbeitung von Inhalten, die für Minderjährige verfügbar sind, die Anzeige eines Popup-Fensters, das daran erinnert, dass Chatbots keine echten Menschen sind, und die Implementierung eines Benachrichtigungssystems für eine erweiterte Plattformnutzung durch Benutzer. Nach Angaben der Kommunikationsdirektorin des Unternehmens, Chelsea Harrison, wurde dies öffentlich erklärt.

Wir sind zutiefst traurig, den Tod eines unserer geschätzten Benutzer bekannt geben zu müssen. Unsere Gedanken und unser aufrichtiges Mitgefühl gelten in dieser schwierigen Zeit ihrer Familie.

Harrison führte aus, dass das System auf der Plattform nun besser in der Lage sei, Eingaben im Zusammenhang mit Selbstverletzung oder Selbstmordgedanken zu erkennen und Benutzer auf die National Suicide Prevention Lifeline umzuleiten. Das laufende Gerichtsverfahren geht jedoch weiter, da Character.AI darauf besteht, dass sie sich weiterhin unerschütterlich für die Benutzersicherheit einsetzen.

Gleichzeitig wurde bekannt, dass die Aptos Foundation mit Flock IO in einem Joint Venture zur Entwicklung von KI-Tools zusammenarbeitet. Interessanterweise werden sie die Programmiersprache Move verwenden, die ursprünglich von Meta für das Diem-Projekt entwickelt wurde, jetzt aber auf verschiedene Blockchain-Anwendungen zugeschnitten wird.

Weiterlesen

2024-10-27 01:08