Ramaswamy warnt vor KI-Risiken nach OpenAI Mature Content Update

Ramaswamy warnt vor „Übermenschlichisierung“ der KI, da ChatGPT den Reifemodus hinzufügt

Last Updated:
Ramaswamy Warns of AI Risks After OpenAI Mature Content Update
  • OpenAI wird im Dezember nicht jugendfreie Inhalte für verifizierte Erwachsene ermöglichen.
  • CEO Sam Altman nennt das Prinzip „Erwachsene wie Erwachsene behandeln“ für eine Änderung der Politik.
  • Der Gouverneurskandidat von Ohio, Ramaswamy, äußert Bedenken über KI-Manipulation.

Der Gouverneurskandidat von Ohio, Vivek Ramaswamy, warnte vor einer übermäßigen Vermenschlichung der künstlichen Intelligenz, nachdem OpenAI ausgereifte Inhaltsfunktionen für ChatGPT angekündigt hatte. Der politische Kandidat äußerte die Befürchtung, dass solche Fähigkeiten den Nutzern eher schaden als nützen könnten.

„Die unnötige ‚Übermenschlichung‘ der KI wird immer beunruhigender“, schrieb Ramaswamy auf X. Er stellte in Frage, ob die neue Funktion die Produktivität oder den Wohlstand der Nutzer verbessern wird.

Ramaswamy warnte ausdrücklich davor, dass die Entwicklung von KI mit der Fähigkeit, Menschen sexuell oder emotional zu manipulieren, äußerste Vorsicht erfordert. Der Kandidat sagte voraus, dass diese Funktionen mit ziemlicher Sicherheit die Sucht und Einsamkeit unter den Nutzern erhöhen werden.

Manipulationsmöglichkeiten lassen rote Fahnen schrillen

Ramaswamys Kommentare reagierten auf die Ankündigung von OpenAI-CEO Sam Altman, dass ChatGPT ab Dezember nicht jugendfreie Inhalte, einschließlich Erotik, für altersverifizierte Erwachsene zulassen wird. Die Richtlinienänderung folgt dem Prinzip „erwachsene Nutzer wie Erwachsene behandeln“, so Altman.

OpenAI hat zuvor restriktive Inhaltsrichtlinien eingeführt, um Nutzer mit psychischen Problemen zu schützen. Altman erklärte, dass das Unternehmen neue Tools entwickelt hat, die eine sicherere Lockerung dieser Beschränkungen für die meisten Benutzer ermöglichen.

Die kommende Version wird es den Nutzern ermöglichen, den Ton und die Persönlichkeit von ChatGPT anzupassen. Zu den Optionen gehören menschenähnliche Antworten, die umfangreiche Verwendung von Emojis oder freundesähnliche Gesprächsstile. Diese bleiben jedoch optional und nicht die Standardeinstellungen.

Mehr zum Thema: OpenAI steigert Ante vs. Musk, indem es Berichten zufolge seine eigene X-like Social App testet

Debatte über potenziellen Nutzen

Ein X-Nutzer stellte Ramaswamys Sichtweise in Frage , indem er nützliche Anwendungen für eine emotional ansprechende KI vorschlug. Der Kommentator schlug vor, dass die Technologie Menschen mit psychischen Problemen unterstützen oder als Beziehungsvermittler dienen könnte.

„Was, wenn es tatsächlich eine Lösung ist… Ein Begleiter, der Menschen mit psychischen Problemen unterstützt. Oder eine Art ‚drittes Rad‘ eines Familienmitglieds, das als Eheberater fungiert“, antwortete der Nutzer. Der Kommentar sprach sich gegen die Verbreitung von Angst vor unvorhersehbaren zukünftigen Ergebnissen aus.

Der Austausch beleuchtet konkurrierende Ansichten zur KI-Humanisierung. Ramaswamys Bedenken konzentrieren sich auf mögliche psychologische Schäden durch Systeme, die darauf ausgelegt sind, emotionale Verbindungen zu den Nutzern aufzubauen. Kritiker argumentieren, dass die Autonomie von Erwachsenen es dem Einzelnen ermöglichen sollte, selbst zu entscheiden, wie er mit KI-Systemen interagiert.

Verbunden:Reddit in Gesprächen über die Übernahme von Sam Altmans Iris-Scan-Kugel zur Benutzerverifizierung

Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.


CoinStats ad

×