Innenministerium
Maßnahmen gegen Desinformation
„Ist die Demokratie in Gefahr?“, „Deepfake – Was ist die Wahrheit?“, „Was ist noch real?“ Diesen Fragen widmeten sich Expertinnen und Experten bei der Veranstaltung „Fake News, Deepfake, Desinformation – Wem können wir noch trauen?“ am 24. Mai im Innenministerium.
Themen wie Fake News, Deepfakes oder Desinformation greifen in alle Lebensbereiche von uns ein, betreffen alle Lebenslagen, alle Altersgruppen, alle Bevölkerungsschichten, und es ist jener Deliktsbereich, der in der Kriminalstatistik am stärksten wächst – deshalb ergibt sich auch für die Sicherheitsbehörden ein breites Aufgabenfeld“, sagte Innenminister Gerhard Karner bei der Veranstaltung.
Projektgruppe.
Im Bundesministerium für Inneres (BMI) hat sich unter anderem eine Projektgruppe in der Generaldirektion für die öffentliche Sicherheit diesem breiten Aufgabenfeld angenommen. Die Projektgruppe befasst sich mit künstlicher Intelligenz und wie diese für die Arbeit genutzt werden kann, mit der Kriminaldienstreform, nach der Prävention bereits in den Schulen ansetzt, sowie mit zeitgemäßen Befugnissen der Polizei, was Messenger-Dienste betrifft.
Auch die Themen Jugendkriminalität und Gewalt an Schulen wurden angesprochen, wobei etwa künstlich generierte Nacktfotos zu Hass im Netz führen.
Zusammenarbeit der Ministerien. Die Bundesministerin für Frauen, Familie, Integration und Medien Susanne Raab hielt fest: „Eine vitale, vielfältige und unabhängige Medienlandschaft ist die Grundimmunisierung gegen Falschinformation und Fake News. Deshalb setzen wir nicht nur auf die Förderung der Medienkompetenz unserer Bürgerinnen und Bürger, sondern schaffen auch die Rahmenbedingungen, um unseren vielfältigen Medienstandort weiter zu stärken.“
Desinformation werde mittlerweile von vielen als eine Bedrohung für die nationale Sicherheit angesehen, das sei insbesondere in diesem Jahr eine große Gefahr für die bevorstehenden Wahlen weltweit. Daher wurde unter anderem eine interministerielle Plattform des Informationsdienstes des Bundeskanzleramts zu Desinformation eingerichtet, führte Raab weiter aus. „Es braucht ein gemeinsames Regelwerk sowie ein gemeinsames Commitment.“
Ist die Demokratie in Gefahr?
Ingrid Brodnig, Buchautorin, Profil-Kolumnistin und Expertin für Digitalisierung, brachte aktuelle Beispiele, etwa wiederholte Falschmeldungen in sozialen Medien in Bezug auf Wahlen. „Wenn diese wiederholt geäußert werden, müssen Sie davon ausgehen, dass diese einsickern und eher für wahr gehalten werden“, sagte Brodnig. Dafür gibt es den Fachbegriff Illusory-Truth-Effect. Dieser funktioniert selbst, wenn man weiß, dass etwas falsch ist. Im Alltag hätte man zu wenig Zeit, um auf jedes Detail einer Information einzugehen. Selbst ohne künstliche Intelligenz (KI) gäbe es genug Möglichkeiten, um durch Falschmeldungen Spaltung und Zwist in einer Gesellschaft zu begünstigen.
BBC-News ist etwa aufgefallen, dass Fans von Donald Trump mit Hilfe von KI Bilder erstellen, auf denen er zum Beispiel gemeinsam mit begeisterten Afroamerikanerinnen dargestellt wird. Diese Bilder sollen den Eindruck erzeugen, dass Trump bei Afroamerikanern beliebt sei.
„Mit neuen technischen Möglichkeiten wird ein neues Repertoire an Irreführung möglich. Richtiges soll man wiederholen, nicht nur verneinen, und rechtliche Möglichkeiten nutzen“, riet Brodnig.
Täuschend echte Deepfakes.
Roland Pucher von PwC Österreich, Leiter des Cybersecurity-& Privacy-Innovation-Labs, stellte sich mit einer Live-Vorführung der Frage: „Deepfake – was ist Wahrheit?“ Mit wenigen Minuten Material aus einem öffentlich zugänglichen Youtube-Video kann mit den richtigen technischen Möglichkeiten bereits ein akkurates Deepfake-Video erstellt werden. „Es geht nicht darum, 100 Prozent der Bevölkerung zu täuschen – bereits ein geringer Prozentsatz reicht aus, um Desinformation zu verbreiten“, sagte Pucher. Es bräuchte weder optische Ähnlichkeit noch müsste die Stimme identisch sein, um einen gewissen Grad von Täuschung erstellen zu können. So eine Täuschung könnte relativ einfach erstellt werden, um Schaden zu erzeugen, beispielsweise bei Videokonferenzen mit Führungskräften. Man müsste eine Person besonders gut kennen, um zu merken, dass es sich nicht um diese handle. Es gibt auch Mechanismen, mit denen man Deepfakes erkennen könnte. „Wenn die Hand zwischen Gesicht und Kamera langsam nach oben oder unten bewegt wird, wackelt das Deepfake, dadurch kann man es erkennen“, führte Pucher aus.
Was ist noch real?
In einer Podiumsdiskussion wurde der Frage nachgegangen, was noch real sei. Maren Häußermann aus dem Verbindungsbüro des Europäischen Parlaments in Österreich ging auf Möglichkeiten der Kooperation innerhalb der Europäischen Union (EU) ein. „Wenn Falschinformationen draußen sind, ist es sehr schwer, sie wieder einzufangen“, sagte Häußermann. Es gibt mehrere internationale Beobachtungs- und Austauschplattformen, wie man mit Desinformationskampagnen umgeht, z. B. das Rapid Alert System, EDMO (European Digital Media Observatory) oder GADMO (German Austrian Medien Observatory). Es sind Regelungen auf gesetzlicher Ebene vorhanden, wie die Verordnung über künstliche Intelligenz (EU AI-Act), der Digital Services Act (DSA), Transparenzregeln für politische Werbung, oder die Anti-SLAPP-Richtlinie (Strategic Lawsuits Against Public Participation).
Recht und KI.
Wie die rechtlichen Rahmenbedingungen aussehen, auch in Bezug auf den AI-Act, erläuterte Jeannette Gorzala, Chief Policy Officer des österreichischen Think-Tanks AI-Austria und Expertin im KI-Recht. „Das Thema ist da. Man kann mit diesen neuen Tools auf allen Kanälen kostenlos und in wenigen Minuten täuschend echte Fotos oder Videos erstellen“, führte Gorzala aus. Der AI-Act habe einige Ansatzpunkte im Produktionszyklus von Desinformation. „Deepfakes muss man an der Wurzel bei der Produktion, beim Verbreiten und in der Konsumation bekämpfen“, sagte Gorzala.
Wichtige Schritte im Kampf gegen Desinformation sind etwa Markierungspflichten von Inhalten, die mit KI-Unterstützung erstellt wurden, sowie die KI-Servicestelle in Österreich, die sich um Aufklärung, Transparenz und vorbereitende Maßnahmen im Zusammenhang mit dem AI-Act kümmert.
Verschwörungstheorien haben während der Covid-19-Pandemie einen Aufschwung erlebt. Darauf ging Felix Lippe, wissenschaftlicher Mitarbeiter der Bundesstelle für Sektenfragen, ein. „Klassische Medien wurden kaum noch herangezogen. Bei Konfrontation mit wissenschaftlichen Fakten sind Personen, die ihre Informationen überwiegend aus Telegram-Netzwerken bezogen haben, diesen Fakten ablehnend gegenübergestanden bis zu dem Zeitpunkt, wo sie in diesem Diskurs nicht mehr erreichbar waren“, führte Lippe aus.
Andre Wolf, Pressesprecher von Mimikama, einem Verein zur Aufklärung über Internetmissbrauch, ging auf internationalen Austausch in europäischen Ländern und Debunking ein – die Identifikationen von Falschmeldungen, sobald sie verbreitet worden sind. Prebunking als zweiter Faktor bei der Aufklärung von Desinformation „ist das Modell, im Vorhinein zu begreifen, wie die Elemente der Desinformation funktionieren, z. B. gewisse Narrative“, sagte Wolf. Bei Deepfakes sei das Visuelle gefährlich, weil sich Visualisierungen in den Köpfen manifestieren, auch wenn man weiß, dass diese nicht echt sind. „Jeder von uns fällt auf Falschmeldungen herein unter anderem aufgrund des Confirmation-Bias – wir glauben nur Informationen, von denen wir schon vorher glauben, dass sie stimmen.“
Sylvia Mayer, stellvertretende Direktorin der Direktion Staatsschutz und Nachrichtendienst (DSN), ging auf die Vorgangsweisen der DSN gegenüber Desinformationskampagnen ein. Desinformation untergrabe den demokratischen, liberalen Rechtsstaat. Es würde ein systemischer Ansatz bei Desinformation verfolgt werden – statt einzelne Accounts auffliegen zu lassen, stehen Erkenntnis von Strukturen, Finanzierern und Informationslieferketten hinter den Kampagnen im Vordergrund. „Kooperation und Sensibilisierung ist für uns ganz wichtig – auf internationaler wie nationaler Ebene“, sagte Mayer.
Medienkompetenzen schärfen.
Auf den Umgang mit Falschinformationen in klassischen Medien ging Anna Thalhammer, Chefredakteurin des Nachrichtenmagazins Profil, ein. Menschen hätten heutzutage viel zu wenig Zeit für Qualitätsmedien und würden ungern längere Artikel lesen wollen. Die Lust an der Debatte gehe unter.
Fazit der Veranstaltung war, dass es in einer zunehmend digitalisierten Welt wichtiger denn je ist, die eigenen Medienkompetenzen zu schärfen und den kritischen Umgang mit Informationen zu fördern. Nur so könne die Gesellschaft den Herausforderungen von Fake News, Deepfakes und Desinformation entgegentreten.
Die Zusammenarbeit zwischen Sicherheitsbehörden, Medien, Bildungseinrichtungen und der Zivilgesellschaft sei entscheidend, um das Vertrauen in demokratische Prozesse zu erhalten und die Demokratie zu schützen.
Nicole F. Antal
Öffentliche Sicherheit, Ausgabe 9-10/2024
Druckversion des Artikels (PDF 379 kB)