Die Welt der Technologie kennt keine Grenzen, und mit den Fortschritten in der Künstlichen Intelligenz (KI) stehen wir vor Herausforderungen, die einst nur in Science-Fiction-Romanen existierten. Doch jetzt wird es ernst: Der österreichische Verfassungsschutz warnt eindringlich vor der zunehmenden R
Die Welt der Technologie kennt keine Grenzen, und mit den Fortschritten in der Künstlichen Intelligenz (KI) stehen wir vor Herausforderungen, die einst nur in Science-Fiction-Romanen existierten. Doch jetzt wird es ernst: Der österreichische Verfassungsschutz warnt eindringlich vor der zunehmenden Rolle von KI bei der Radikalisierung extremistischer Gruppen. Was bedeutet das für uns alle?
Am 14. August 2025 veröffentlichte das Bundesministerium für Inneres eine alarmierende Pressemitteilung. Die Direktion Staatsschutz und Nachrichtendienst (DSN) weist darauf hin, dass extremistische Gruppierungen zunehmend Künstliche Intelligenz nutzen könnten, um gezielte Radikalisierungsstrategien zu entwickeln. Diese Technologien machen es möglich, Personen individuell anzusprechen und für extremistische Ideologien zu gewinnen.
Staatssekretär Jörg Leichtfried betonte die Gefahren dieser neuen Bedrohung: „Die fortschreitende Entwicklung Künstlicher Intelligenz eröffnet extremistischen Gruppierungen gefährliche Möglichkeiten, Menschen mit maßgeschneiderter Propaganda zu radikalisieren. Wir dürfen diese neue Form der Bedrohung nicht unterschätzen.“
Moderne KI-Systeme können riesige Datenmengen analysieren und dabei psychologische und soziale Merkmale von Nutzern erkennen. Extremistische Organisationen könnten diese Technologien nutzen, um maßgeschneiderte Inhalte zu entwickeln, die auf die persönlichen Überzeugungen und Schwachstellen von Individuen zugeschnitten sind. Dies könnte auf folgende Weise geschehen:
Die Fähigkeit dieser Systeme, Inhalte in Echtzeit zu optimieren und auf spezifische Reaktionen von Zielpersonen einzugehen, stellt Sicherheitsbehörden vor neue Herausforderungen. Herkömmliche Überwachungs- und Gegenmaßnahmen stoßen hier an ihre Grenzen, da sich KI-generierte Inhalte dynamisch verändern und klassische Erkennungsmechanismen umgehen können.
Besonders problematisch wäre es, wenn extremistische Akteure generative KI gezielt einsetzen, um Verzerrungen oder Lücken in der Erkennung von Sprach-, Bild- oder Desinformation zu finden und auszunutzen. Dadurch könnten personalisierte Radikalisierungswege entstehen, die schwerer zu durchbrechen sind als herkömmliche Propaganda.
Radikalisierung ist kein neues Phänomen. Historisch gesehen haben extremistische Gruppen immer schon versucht, ihre Ideologien zu verbreiten und Anhänger zu gewinnen. Doch während früher Flugblätter und geheime Treffen das Mittel der Wahl waren, hat das Internet die Spielregeln verändert. In den letzten zwei Jahrzehnten haben soziale Medien und Online-Plattformen eine zentrale Rolle bei der Verbreitung extremistischer Inhalte gespielt. Mit der Einführung von KI nehmen die Möglichkeiten zur Manipulation und gezielten Ansprache jedoch eine völlig neue Dimension an.
Die enorme Menge an Online-Inhalten kann heute nicht mehr ausschließlich manuell überprüft werden. Daher ist davon auszugehen, dass große Plattformen und Sicherheitsbehörden zukünftig verstärkt auf automatisierte Werkzeuge zurückgreifen werden, die mittels maschinellen Lernens terroristische oder extremistische Inhalte erkennen und deren Entfernung anregen. Gleichzeitig besteht das Risiko, dass dieselben technologischen Fortschritte auch von extremistischen Akteuren adaptiert und missbraucht werden könnten.
Die Zusammenarbeit mit Technologieunternehmen ist entscheidend, um Manipulationsversuche frühzeitig zu erkennen. Erhöhte Transparenz und Kontrolle über Algorithmen könnten hier ein Schlüssel sein, um die Bedrohung einzudämmen.
Die potenziell steigende Rolle von KI bei der Radikalisierung betrifft uns alle. Denn die Technologien, die von extremistischen Gruppen genutzt werden, sind dieselben, die wir im Alltag verwenden. Sei es in sozialen Medien, bei der Nutzung von Sprachassistenten oder in der Unterhaltung – überall lauert die Gefahr, dass wir unbemerkt in extremistische Netzwerke gezogen werden.
Ein fiktiver Experte warnt: „Die Gefahr ist real. Wir müssen uns bewusst sein, dass unsere Daten zu Waffen gemacht werden können. Jeder Klick, jedes Like und jeder Kommentar kann analysiert und gegen uns verwendet werden.“
Die DSN arbeitet intensiv mit nationalen und internationalen Partnern zusammen, um für die zukünftig zu erwartenden Herausforderungen gewappnet zu sein. Strategien zur Erkennung und Bekämpfung von KI-gestützter Radikalisierung werden entwickelt. Dabei wird auf folgende Ansätze gesetzt:
„Nur mit enger Zusammenarbeit von Staat, Sicherheitsbehörden und Technologieunternehmen sowie durch Stärkung von Medienkompetenz und dem kritischen Umgang mit Online-Inhalten können wir dem voranschreitenden Extremismus im Netz entgegentreten“, sagt Leichtfried.
Auch andere Länder stehen vor ähnlichen Herausforderungen. In den USA und Großbritannien wird bereits intensiv an der Entwicklung von Technologien gearbeitet, die extremistische Inhalte identifizieren und entfernen können. In Deutschland gibt es Initiativen zur Förderung der digitalen Aufklärung, um die Bevölkerung für die Gefahren im Netz zu sensibilisieren.
Ein internationaler Vergleich zeigt, dass die Bedrohung durch KI-gestützte Radikalisierung ein globales Problem ist, das nur durch internationale Zusammenarbeit effektiv bekämpft werden kann.
Die Bedrohung durch KI-gestützte Radikalisierung ist real und betrifft uns alle. Es liegt an uns, wachsam zu bleiben und die Technologien, die wir täglich nutzen, kritisch zu hinterfragen. Nur so können wir uns und unsere Gesellschaft vor den Gefahren schützen, die in der digitalen Welt lauern.
Weitere Informationen finden Sie in der Pressemitteilung des Bundesministeriums für Inneres.