Technologische Fortschritte bei der Medienproduktion und -nutzung haben die Art und Weise, wie Wahlkämpfe geführt werden, immer wieder verändert: Soziale Medien, Fernsehen und Radio waren zu ihrer Zeit Revolutionen. Es gab immer wieder Bedenken hinsichtlich der Auswirkungen dieser neuen Technologien auf die Demokratie: Das Milwaukee Journal äußerte nach der ersten im Fernsehen übertragenen Präsidentendebatte im Jahr 1960 die Befürchtung, dass „der amerikanische Präsidentschaftswahlkampf nie wieder derselbe sein wird“. Vielleicht hatten sie recht …
Es ist klar, dass das Jahr 2024 als ein großes Jahr für die Demokratie in Erinnerung bleiben wird, mit Wahlen in 64 Ländern sowie in der Europäischen Union und der neuesten disruptiven Technologie, der künstlichen Intelligenz. In diesem Jahr erleben wir einen verstärkten Einsatz generativer KI zur Erstellung von Deep Fakes – also Videos, die echt aussehen und klingen, in Wirklichkeit aber künstlich erstellt wurden, oft mit dem Ziel, Fehl- oder Desinformationen zu verbreiten. Deep Fakes sind mächtige Werkzeuge und da sich die KI-Technologie rasant weiterentwickelt – und der Zugang zu ihnen erweitert wird – birgt sie klare potenzielle Gefahren nicht nur für demokratische Entscheidungsprozesse, sondern auch für Verbraucher und Unternehmen.
Vor diesem Hintergrund habe ich (ein Brite) mich mit unseren internen Experten David Fairman (ein Australier und unser APAC-CIO) und Shamla Naidoo (eine Südafrikanerin und CXO-Beraterin) zusammengesetzt, um ihre Gedanken zu den potenziellen Sicherheitsproblemen zu hören, die die Technologie während dieser globalen Wahlen mit sich bringt, was diese technologischen Entwicklungen für Menschen und Unternehmen bedeuten könnten und wie wir uns als Einzelpersonen schützen können.
Emily: David, fangen wir an: Was sind Deep Fakes und wie werden sie eingesetzt?
David: Deep Fakes sind Bilder, Videos und Audiodateien, die von generativer künstlicher Intelligenz erstellt wurden. Dabei wird das Abbild einer bestimmten Person manipuliert, um den Anschein zu erwecken, dass diese etwas tut oder sagt, was sie in Wirklichkeit nicht getan hat. Sie verbreiten nicht nur Fehlinformationen und Lügen, ihre Herstellung wird auch immer einfacher und billiger. Alles, was Sie benötigen, ist die richtige Software und Quellmaterial wie öffentlich verfügbare Bilder und Videos einer Person, um das KI-Tool zu informieren.
Bei Politikern ist es sehr einfach, an derartiges Material zu kommen, doch in zunehmendem Maße könnten auch Wirtschaftsführer, Prominente und grundsätzlich jeder, der soziale Medien nutzt, Opfer von Deepfakes werden. Da wir Medien heute hauptsächlich über kurze, schnell aufzunehmende Videos konsumieren, können Deepfakes insbesondere für das ungeübte Auge sehr überzeugend sein. Mit der Weiterentwicklung der Technologie wird es noch schwieriger, sie zu unterscheiden und festzustellen, welche Inhalte echt sind und welche nicht.
Emily: Shamla, wie nutzen schlechte Schauspieler sie während der Wahlen?
Shamla: In vielen Demokratien erleben wir im Vorfeld von Wahlen Deep Fakes, insbesondere während der oft emotional aufgeladenen Wahlkampfphasen. Das ultimative Ziel besteht darin, unsere Wahlentscheidung zu beeinflussen. Alle unsere Entscheidungen werden, ob bewusst oder unbewusst, von dem beeinflusst, was wir täglich sehen und hören. Und in einem Wahlkampf kann ein Deepfake-Inhalt zu einem wichtigen Thema unsere Entscheidung beeinflussen, wen wir wählen und wer letztlich an die Macht kommt.
Da Deep Fakes billig und relativ einfach zu erstellen sind, stellen sie eine riesige Chance für böswillige Akteure dar, die ein Interesse daran haben, dass eine Bevölkerung für einen bestimmten Kandidaten stimmt (oder nicht stimmt).
Emily: Wie gehen die Opfer in der Politik mit Deep Fakes um?
Shamla: Obwohl sie immer häufiger vorkommen, werden Deep Fakes in den meisten Demokratien von Fall zu Fall behandelt und grundsätzlich als eine Frage des Reputationsmanagements für Kandidaten betrachtet, da die Falschinformationen oft persönlicher und skandalöser Natur sind. Dies unterschätzt möglicherweise die Wirkung dieser Kampagnen, da jede von ihnen mit einem umfassenderen Ziel vor Augen erstellt wird.
Je weiter sich Deep Fakes verbreiten (und meiner Meinung nach ist es unvermeidlich, dass sie häufiger werden), desto mehr müssen wir aufklären und Systeme einrichten, die dafür sorgen, dass Menschen und Plattformen Informationen und Quellen doppelt überprüfen.
Emily: Und wie sieht es in der Geschäftswelt aus, David? Inwiefern stellen Deep Fakes eine Bedrohung für das Geschäft dar und wie gehen Organisationen mit den ersten gemeldeten Vorfällen um?
David: Dies ist für Unternehmen eine völlig neue Bedrohung, aber eine Herausforderung, die immer bedeutender werden wird. Ich bin davon überzeugt, dass sich Unternehmen vor der Verwendung von Deepfakes hüten müssen, um sich als Führungskräfte eines Unternehmens auszugeben. Social-Engineering-Angriffe stellen bereits jetzt eine Gefahr dar. Dabei geben sich Kriminelle als eine andere Person aus, oftmals als Autorität oder vertrauenswürdige Person, um Menschen dazu zu verleiten, Geld zu überweisen, Zugriff zu gewähren oder Informationen zu übermitteln. Mit der Weiterentwicklung der KI-Technologie wird es noch schwieriger, einen echten Anruf eines leitenden Angestellten von einem gefälschten zu unterscheiden. Damit steigt auch die Gefahr für Betrüger, ahnungslose Opfer zu täuschen.
Emily: Das klingt alles ziemlich düster und hoffnungslos. Aber das ist hoffentlich nicht der Fall. Ist es? Bitte sag mir, dass es nicht so ist …
Shamla: Die Tatsache, dass es so schwierig ist zu wissen, was durch KI erzeugt wurde und was nicht, macht es für den einzelnen Verbraucher schwierig zu wissen, was er tun soll, außer vorsichtig vorzugehen!
Aber zum Glück ist nicht alles so schlimm, wie es scheint. Wir beobachten, dass Social-Media-Plattformen zunehmend künstlich erstellte Inhalte kennzeichnen , damit wir wissen, ob der Inhalt echt ist oder nicht, bevor wir ihn teilen oder „liken“.
Dennoch können wir uns immer zum Ziel setzen, mehr zu tun. Ich denke, wir müssen sehen, dass die Regierungen ernsthafte Schritte zur Umsetzung von KI-Gesetzen unternehmen – ähnlich dem Ansatz, den die Europäische Union mit ihrem Artificial Intelligence Act verfolgt hat – und rechtlich verbindliche Anforderungen einführen, die die KI-Risiken mindern. Nur dann werden wir den Einsatz von KI in diesem Kontext und die damit verbundenen Risiken beherrschen können.
Emily: David, und wie sieht es in Unternehmen aus?
David: Wie ich bereits erwähnt habe, sind Social-Engineering-Angriffe eine besonders gefährliche Möglichkeit, Deep Fakes einzusetzen. Wenn Unternehmen jedoch in Situationen geraten, in denen sie nicht hundertprozentig sicher sind, ob sie angegriffen wurden oder nicht, sollten sie ein sogenanntes Call-Back-Verfahren etablieren. Damit können die Mitarbeiter überprüfen, ob hinter einem Angriff ein Krimineller steckt oder ob die Anfrage (im Fall einer Anfrage einer vertrauenswürdigen Person) legitim ist.
Der Vorteil dieses Verfahrens besteht darin, dass man nicht erkennen muss, dass es sich bei der Audio- oder Videonachricht um eine Fälschung handelt, sondern nur ein Gespür dafür haben muss, dass die Nachricht ungewöhnlich ist oder von einem verlangt, etwas Ungewöhnliches zu tun.
Emily: Ah, das ist alles unglaublich nützlich! Vielen Dank an Sie beide für Ihre Zeit und die wertvollen Einblicke.
Obwohl es sich bei Deep Fakes lediglich um die neuste technologische Innovation handelt, die Wahlprozesse und Fairness in Frage stellt (und potenziell auch Auswirkungen auf Unternehmen hat), unterscheiden sie sich sowohl hinsichtlich der Geschwindigkeit, mit der sie sich weiterentwickeln und verbessern, als auch hinsichtlich des Ausmaßes, in dem sie möglicherweise erheblichen Einfluss in die Hände anonymer Krimineller legen. Angesichts der aktuellen Wahlen auf der ganzen Welt sollten wir unbedingt die Herkunft unserer Informationen und ihre Vertrauenswürdigkeit überprüfen.
Weitere Informationen zu Wahlen, Desinformation und Sicherheit finden Sie in unserem Podcast mit Shamla hier oder wo immer Sie Ihre Podcasts hören.