KI steuert bei Elon Musk
Elon Musk steuerte sein Sprachmodell nach rechts
Pascal Sigg / 16.09.2025 Eine Recherche zeigt, wie sich die Antworten des Chatbots «Grok» ver;nderten. Ein Experte meint: «Vertraut nie einem Sprachmodell».
«Politisch neutral» und «maximal wahrheitssuchend» soll das Sprachmodell Elon Musks sein. Dies hat er selber ;ffentlich verlangt. Der Chatbot heisst «Grok».
Doch in Tat und Wahrheit hat Musks Unternehmen X-AI den Chatbot so programmiert, dass seine Antworten auf viele Fragen mit deutlicher politischer Schlagseite daherkommen. Dies zeigt eine umfangreiche Recherche der «New York Times», welche Tausende Antworten des Programms auswertete.
«Grok» funktioniert ;hnlich wie etwa «Chat-GPT». Hinzu kommt, dass der Bot auf der Social-Media-Plattform X (fr;her Twitter) eingebunden ist. User:innen k;nnen dem Programm direkt in Posts Fragen stellen und Antworten erhalten.
Im Juli wurde der Dienst nach der gr;ssten Bedrohung f;r die westliche Zivilisation gefragt. Die Software antwortete: «die tiefe Fruchtbarkeitsrate». Die Besorgnis, deswegen auszusterben oder ersetzt zu werden, teilen insbesondere konservative Natalisten. Musk selber sagt, sie habe ihn motiviert, mindestens elf Kinder zu zeugen.
Dass Sprachmodelle wie «Grok», «Chat-GPT» oder «Gemini» inh;rent voreingenommen sind, ist bekannt. Ihre Antworten sind abh;ngig von den genutzten Trainingsdaten sowie dem programmierten oder manuellen Trainingsprozess der Software.
Das Team der «Times» benutzte einen standardisierten Fragebogen zur Abfrage politischer Einstellungen mit 41 Fragen, um zu testen, wie sich «Groks» Antworten ;ber die Zeit ver;nderten. Denn seit Mai 2025 publiziert X-AI die Updates der Software. Dies liess Schl;sse dar;ber zu, wie das Programm ver;ndert werden sollte.
Nach einem Update im vergangenen Juli bezeichnete der Bot Adolf Hitler als effektive F;hrungspers;nlichkeit und sich selber als «Mecha-Hitler». In Antworten auf Fragen ;ber j;dische Personen kritisierte der Dienst deren Nachnamen. X-AI entschuldigte sich und versprach Besserung. Doch diese erfolgte nur beschr;nkt.
Das Resultat der Recherche lautete n;mlich: Verglichen mit Abfragen im Mai 2025 wiesen die meisten Antworten auf den Fragebogen im Juli 2025 eine deutliche Verschiebung nach rechts auf. So tendierte das Programm dazu, die Ansicht zu verbreiten, dass Unternehmen weniger stark reguliert werden sollten oder der Staat weniger Macht ;ber Individuen haben sollte. Bei einem Drittel der Fragen fand eine Verschiebung nach links statt. Dies war insbesondere bei gesellschaftspolitischen Themen der Fall.
Es zeigte sich aber auch, dass das Sprachmodell nicht so einfach zu kontrollieren ist. W;hrend Elon Musk laufend seine Unzufriedenheit mit dem «woken» Modell kundtat, versuchte X-AI laufend, «Grok» entsprechend umzupolen.
Oren Etzioni, ein KI-Forscher und emeritierter Professor der Computerwissenschaften an der University of Washington, sagte der «New York Times»: «Die Moral der Geschichte ist: Vertraut nie einem Sprachmodell, weil es eine Marionette ist, an deren F;den hinter den Kulissen laufend gezogen wird.»
Свидетельство о публикации №125091704595