Seite auswählen

Werbung

Gefahr statt Fortschritt: Die Risiken von künstlicher Intelligenz

Gefahr statt Fortschritt: Die Risiken von künstlicher  Intelligenz
Foto: Solen Feyissa/Unsplash

Viele Unternehmen nutzen seit Jahren künstliche Intelligenz und sprechen dabei von Vorteilen für die gesamte Bevölkerung. Doch der Einsatz von KI hat auch Nachteile, wie jüngste Entwicklungen zeigen. MADS listet einige kritische Aspekte auf.


Mit ein paar Klicks Videos erschaffen, Bilder generieren, Musik produzieren oder schwierige Fragen beantworten – all das versprechen sich viele Menschen von KI-Tools wie ChatGPT und Co. Was auf den ersten Blick verlockend und harmlos klingt, birgt allerdings auch einige Risiken. Und dabei geht es nicht nur darum, dass ein paar Schülerinnen und Schüler ihre Hausaufgaben mit ChatGPT machen, oder sich die Berufswelt durch den Einsatz von künstlicher Intelligenz verändern könnte. MADS listet einige kritische Aspekte auf.

1. Künstliche Intelligenz und die Verschwörungstheorie des „Dead Internet“

Seit mehreren Jahren kursiert auf sozialen Medien die sogenannte „Dead Internet Theory“. Diese Verschwörungstheorie besagt, dass ein Großteil der Aktivitäten im Internet und auf Social-Media-Plattformen von Bots ausgeführt werden, die miteinander kommunizieren und KI-generierten Content verbreiten, um Massenmeinungen zu beeinflussen. Also eine Art Selbstgespräch des Internets.

Das klingt übertrieben – doch wer in letzter Zeit oft auf Plattformen wie Facebook und X (ehemals Twitter) unterwegs ist, weiß: Komplett aus der Luft gegriffen ist der Kern der Theorie nicht. Große Accounts auf X posten regelmäßig Inhalte, in deren Kommentarspalten es nur so von Accounts wimmelt, die eindeutig nicht von echten Menschen betrieben werden. Aufschluss darüber, ob ein Account von einem Menschen oder einem Computer betrieben wird, kann beispielsweise die Profilbeschreibung liefern. Auch eine sehr hohe Aktivität und eine sehr schnelle Reaktionsgeschwindigkeit können Hinweise dafür sein, dass es sich um einen Bot handelt.

Gleichzeitig verbreiten sich KI-generierte Fotos von Menschen mit völlig verformten Körpern auf Facebook extrem schnell – warum und wie, lässt sich nicht einfach beantworten.

Warum Bot-Aktivitäten auf X so verbreitet sind, ist dagegen leichter zu erklären. Mit einer Monatsrate von acht Dollar kann sich jeder Account verifizieren lassen. Verifizierte Accounts haben anschließend einen Anspruch auf Anteile an Gewinnen, die durch Werbung erwirtschaftet werden. Das kann zu einem Teufelskreis führen, in dem große Accounts drastische oder kontroverse Inhalte posten, um möglichst viel Aufmerksamkeit zu erlangen. Denn: Bereits das Ansehen eines Posts oder eine Antwort darauf generiert Werbeeinnahmen für den jeweiligen Account. Antworten von verifizierten Accounts werden zudem als Erstes in Kommentarspalten angezeigt und erhalten so mehr Aufrufe. So rechnet es sich wahrscheinlich finanziell gesehen, einen verifizierten Account zu erstellen und diesen so zu programmieren, dass er auf möglichst viele Posts antwortet, um selbst Aufrufe und damit Anrecht auf Werbeeinnahmen zu erhalten.

2. Künstliche Intelligenz treibt Co2-Emissionen in die Höhe

Das ist nicht die einzige negative Folge von KI. Wie Google in seinem Nachhaltigkeitsbericht aufführte, stiegen die CO₂-Emissionen des Konzerns in den vergangenen Jahren drastisch an. 2023 stieg der Ausstoß im Vergleich zu 2022 um 13 Prozent an, seit 2019 meldete Google sogar einen Anstieg von 48 Prozent. Schuld daran ist der zunehmende Einsatz künstlicher Intelligenz. Denn der sorgt für größere Massen an Rechenleistungen, die mehr Strom verbrauchen. Trotzdem wirbt das Unternehmen sogar im selben Bericht mit den Vorteilen von KI und spricht davon, mithilfe von künstlicher Intelligenz Maßnahmen gegen den Klimawandel durchsetzen zu wollen.

Mit dem Anstieg von Treibhausgasen ist Google nicht allein, denn auch andere Konzerne wie Microsoft vermeldeten einen erhöhten Emissionsausstoß, der auf die steigende Nutzung von KI zurückzuführen ist. Diese führt zusätzlich zu einem höheren Wasserverbrauch, denn die stärker beanspruchten Rechenzentren müssen gekühlt werden. Eine Studie der University of California und der University of Texas schätzt: Allein für das Training der Version Chat GPT-3 wurden 5,4 Millionen Liter Wasser verbraucht.

3. Wie KI von Promis, Künstlerinnen und Künstlern klaut

Einige Unternehmen setzen schon seit einiger Zeit künstliche Intelligenz ein. Sie bedienen sich dabei offensichtlich am geistigen Eigentum von Künstlerinnen und Künstlern und nutzen bekannte Gesichter, um Aufmerksamkeit zu generieren. Beispielsweise wirbt das Unternehmen Meta Chatbots auf den Plattformen Instagram und Whatsapp und nutzt dafür die Gesichter von prominenten Persönlichkeiten wie Mr Beast und Snoop Dog. Unklar ist, ob die jeweiligen Personen dem zugestimmt haben und ob sie dafür bezahlt werden. Die Charaktere werden unter einem anderen Namen beworben.

Foto: Screenshot/Instagram (@comedyzach)

Das gleiche Konzept verfolgen bereits zahlreiche andere Unternehmen, darunter auch „Character.AI“, das es Userinnen und Usern ermöglicht, mit KI-Versionen von Prominenten und bekannten fiktionalen Charakteren zu chatten. Betroffene Promis und Firmen gaben bereits an, dem nicht zugestimmt zu haben und kündigten rechtliche Schritte an.

Doch Unternehmen bedienen sich bei der Nutzung von KI nicht nur bei prominenten Personen und großen Firmen. Die Bilddatenbank Adobe bietet ebenfalls KI-generierte Bilder an und verlangt für deren Nutzung viel Geld. Bislang verwenden beispielsweise Content Creator oder Journalistinnen Stock-Fotos von Adobe, da sie oftmals nicht die Ressourcen haben, solche Fotos selbst zu machen. Jetzt können die Adobe-Nutzerinnen und -Nutzer auch auf KI-generierte Fotos zurückgreifen. Adobe kann diese Bilder nur selbst generieren, weil die KI des Unternehmens mit echten Fotos trainiert wurde, die Personen auf der Website von Adobe anbieten. Die KI bedient sich also an Bildern, die von echten Personen gemacht wurden, um anschließend gegen diese um Kundinnen und Kunden zu konkurrieren.

4. KI kann bedenkliche Inhalte schlecht filtern

Vor einigen Wochen ging ein Beitrag auf X viral, in dem ein User berühmte Album-Cover mithilfe einer KI in kurze Clips umwandelte. Abgesehen davon, dass die Qualität dieser Clips sehr schlecht war, beinhalteten diese zum Teil bedenkliche Inhalte. So benutzte der User das Cover des Songs „Nevermind“ der Band Nirvana, auf dem ein nacktes Baby zu sehen ist, und wandelte das Bild ebenfalls in ein Video um.

Nach massiver Kritik entfernte der User das Video, doch es braucht wohl kaum eine Erklärung, um deutlich zu machen: Es sollte Userinnen und Usern im Internet nicht so leicht gemacht werden, Videos von nackten Kindern zu erstellen. Auch hier ist der Einsatz von KI gefährlich, da sie keinen moralischen Kompass besitzt und Filter für bedenkliche Inhalte anscheinend leicht zu umgehen sind.

5. KI begünstigt Deepfake-Inhalte

Die Bearbeitung von Fotos und Videos für kriminelle Zwecke ist nichts Neues, doch mithilfe von KI haben sogenannte Deepfakes ein neues Level erreicht. Dadurch können täuschend echte Aufnahmen entstehen, die oft im Internet verbreitet werden – wie zum Beispiel im Januar dieses Jahres: Nach und nach tauchten immer mehr pornografische Deepfake-Inhalte auf, in denen vermeintlich Sängerin Taylor Swift zu sehen war. Die durch KI erstellten Bilder erlangten in kurzer Zeit so viel Aufmerksamkeit, dass die Plattform X zwischenzeitlich Suchanfragen mit dem Begriff „Taylor Swift“ blockierte.


Lies auch:


Über den Autor/die Autorin:

Poste einen Kommentar:

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert