Künstliche Intelligenz (KI) ist zurzeit in aller Munde – vor allem nach der Veröffentlichung von ChatGPT-4 und DALL-E 2. Der Hype ist groß, und jeder will die Programme zu seinem Vorteil nutzen. Doch oft wird vergessen, dass die Technologie auch Schattenseiten hat. Denn mit Hilfe der KI werden auch Bilder und Videos geschaffen, die täuschend echt wirken, jedoch fake sind. Die Konsequenzen sind verheerend.
Aber was genau macht Künstliche Intelligenz so gefährlich? Wie tragen Programme wie ChatGPT zu der Verbreitung von Fake News bei? Und wie lässt sich gegensteuern? Diesen Fragen wollen wir in diesem Beitrag auf den Grund gehen.
Fakes werden immer besser
Der Papst in einer weißen Daunenjacke, die Verhaftung Donald Trumps oder Putin kniend vor Chinas Staatspräsidenten, ein Fake-Video von Ukraine-Präsident Selenskyj: Das sind nur einige bekannte Beispiele für Fakes, die in jüngster Vergangenheit von Künstlicher Intelligenz erschaffen wurden.
Noch lassen sich Fake-Bilder und -Videos an verschiedenen Details erkennen: In Videos stimmen oft die Mundbewegungen nicht mit dem Gesagten überein. Bei Bildern kann man Fälschungen oft an Händen, Ohren, Zähnen oder auch Schatten erkennen. Im Falle des Papst-Bildes sind beispielsweise Hände zu sehen, die nicht zu ihm passen.
Doch die Fakes werden besser, es wird immer schwieriger, Fälschungen zu erkennen. Mit verschiedenen KI-Tools lassen sie sich schnell und einfach erstellen, die Technologie wird schnell besser und ist uns immer einen Schritt voraus. Wir sollten also damit rechnen, dass durch KI generierte Fake-Bilder und Fake-Videos bald gar nicht mehr identifiziert werden können. Immer mehr Fakes werden in Umlauf geraten, und man wird nicht mehr zwischen echt und unecht unterscheiden können.
Wie ChatGPT zu der Verbreitung von Fakes beiträgt
Die Künstliche Intelligenz ChatGPT, die eigenständig Texte schreibt, trägt ganz wesentlich zur Verbreitung von Fake-News bei. Ganz einfach lassen sich z.B. Artikel zu Fake-Bildern generieren und veröffentlichen. Diese Artikel samt Fake-Bild können anschließend in den Medien und über Social Media verbreitet werden. Es sieht dann so aus, als würden bereits unzählige Reporter über das Thema berichten, was den Fake glaubwürdig erscheinen lässt.
Doch ChatGPT kann nicht nur bewusst zur Erstellung von Fake News eingesetzt werden, auch ungewollt können Texte mit Falschinformationen entstehen. Denn das Programm verarbeitet ausschließlich Daten aus dem Internet – und diese können eben auch falsch sein. Es ist daher möglich, dass ChatGPT die falschen oder unvollständigen Informationen übernimmt und Texte daraus erstellt. Auch so können zukünftig jede Menge Fake-Texte entstehen.
Was ist überhaupt Fake?
Schwer zu entscheiden ist aktuell, was überhaupt noch als echt gilt und was als fake. Falsche Informationen bleiben falsche Informationen, das ist eindeutig. Doch gelten auch neue Bilder, die von Künstlicher Intelligenz erstellt werden, als Fakes? Der Bildgenerator DALL-E 2 etwa erstellt auf Sprachbefehl im Handumdrehen Bilder. Schon jetzt gibt es Ausstellungen, die ausschließlich Werke enthalten, die von KI erschaffen worden sind. Im Prinzip können solche Bilder nicht als Fälschungen gelten, weil sie auf keinen falschen Daten beruhen, sondern etwas Neues zeigen. Und in der Kunst ist bekanntlich alles erlaubt.
Der Einsatz von KI muss ausgewiesen werden
Parallel zu den KI-Tools entstehen Programme, die KI-generierte Beiträge – Bilder, Videos oder Texte – erkennen sollen. Bekannt sind etwa Originality AI oder AI Text Classifyer. Der AI Text Classifyer wurde von OpenAI (das ist das Unternehmen, das ChatGPT auf den Markt gebracht hat) selbst bereitgestellt.
Die Tools werden etwa gerne von Lehrern genutzt, um den Einsatz von KI bei den Hausarbeiten der Schüler nachzuweisen. Denn es gilt: Die Nutzung von Hilfsmitteln – dazu zählt auch jede Form von KI – muss im schulischen oder universitären Bereich angegeben werden. Künstliche Intelligenz für die Erstellung von Hausarbeiten, Essays und Co. zu nutzen, ohne dies zu kennzeichnen, ist verboten. Und auch bei Kunstwerken, die mit KI erschaffen worden sind, wird verlangt, den Einsatz von KI anzugeben.
%MEDIUM-RECTANGLES%
Fazit
Alles spricht daher für eine Kennzeichnungspflicht von KI-generierten Bildern, Videos und Texten. Nur so kann der Verbreitung von Fake News entgegengewirkt werden und verhindert werden, dass jede Menge Informationen in Umlauf sind, von denen man nicht weiß, ob sue wahr sind und oder nicht.
Ausführlichen und verlässlichen Quellenangaben kommt in diesem Zusammenhang daher besondere Bedeutung zu – insbesondere in (Sozialen) Medien, deren Inhalte sich besonders schnell verbreiten. Gleichzeitig sollte auch nicht alles geglaubt werden, was man sieht oder liest. Mehr denn je gilt es, alles zu hinterfragen – vor allem, wenn es einem fragwürdig vorkommt.
Weiterlesen: Digitale Ethik, Künstliche Intelligenz (KI) und die Werte des 21. Jhd.
Weiterlesen: Marketing: Wie KI Content Marketing und SEO revolutioniert
Weiterlesen: So geht digitaler Wandel - sieben Anregungen für EPU
Weiterlesen: Welches Potential für künstliche Intelligenz hat Ihr Unternehmen??
Kommentare ( 0 )