Zwei Jahre ChatGPT: Erstmals nutzt eine Mehrheit KI-Anwendungen – Sorge vor Wahlmanipulation und Desinformation 

Chat­G­PT, Google Gem­i­ni, Mid­Jour­ney oder Anthrop­ic Claude: Anwen­dun­gen gen­er­a­tiv­er Kün­stlich­er Intel­li­genz (KI) prä­gen zunehmend den All­t­ag in Deutsch­land. Gut jede:r zweite Bundesbürger:in (53 Prozent) hat gen­er­a­tive KI bere­its genutzt. Das hat eine repräsen­ta­tive For­sa-Umfrage im Auf­trag des TÜV-Ver­bands unter 1.001 Per­so­n­en ab 16 Jahren ergeben. Zum Ver­gle­ich: Im Okto­ber 2023 gaben bei ein­er Umfrage 37 Prozent der Deutschen an, KI bere­its zu nutzen, und im April 2023, ein halbes Jahr nach Ein­führung von Chat­G­PT, waren es 23 Prozent. „KI-Dien­ste entwick­eln sich zu unverzicht­baren dig­i­tal­en All­t­agshelfern, ähn­lich wie Such­maschi­nen, E‑Mails oder Nav­i­ga­tions­di­en­ste, sowohl im pri­vat­en als auch im beru­flichen Bere­ich“, sagte Dr. Joachim Büh­ler, Geschäfts­führer des TÜV-Ver­bands, bei Vorstel­lung der Stu­di­energeb­nisse. Dem­nach nutzen derzeit vor allem Jün­gere KI-Anwen­dun­gen: 78 Prozent der 16- bis 35-Jähri­gen, 55 Prozent der 36- bis 55-Jähri­gen, aber nur 26 Prozent in der Alters­gruppe von 56 bis 75 Jahren. Män­ner nutzen KI mit einem Anteil von 60 Prozent deut­lich häu­figer als Frauen mit 45 Prozent. Gut ein Vier­tel der KI-Nutzen­den (26 Prozent) sind „heavy user“, die entsprechende Anwen­dun­gen täglich oder mehrmals wöchentlich ein­set­zen. Eine deut­liche Mehrheit stimmt der Aus­sage zu, dass die KI-Tech­nolo­gie das Poten­zial hat, sie im pri­vat­en (61 Prozent) und beru­flichen (59 Prozent) Leben zu unter­stützen. Es gibt aber auch starke Vor­be­halte und Sor­gen: Eine deut­liche Mehrheit sieht derzeit nicht abschätzbare Risiken der KI-Tech­nolo­gie (76 Prozent). Büh­ler: „Mit Blick auf die Bun­destagswahl ist es wichtig, KI-Kom­pe­ten­zen zu fördern und Maß­nah­men für die Erken­nung und Abwehr von Desin­for­ma­tion zu ergreifen. Die Parteien soll­ten sich im Wahlkampf auf Regeln für den Ein­satz von KI ver­ständi­gen und KI-gener­ierte Wahlwer­bung kennze­ich­nen.“ Der TÜV-Ver­band fordert daher Maß­nah­men, um ver­trauenswürdi­ge KI-Sys­teme zu gewährleis­ten und die Demokratie zu schützen.

Laut den Ergeb­nis­sen der drit­ten TÜV Chat­G­PT-Studie wer­den in der Bevölkerung die Auswirkun­gen von KI auf Demokratie und Medi­en­sys­tem beson­ders kri­tisch gese­hen: So befürcht­en 87 Prozent, dass mith­il­fe von KI gefälschte Bilder und Videos (Deep­fakes)

Wähler:innen manip­ulieren kön­nen. 83 Prozent sind der Mei­n­ung, dass die KI-Tech­nolo­gie die Ver­bre­itung von „Fake News“ mas­siv beschle­u­nigt. Und 79 Prozent glauben, dass KI-gener­ierte Bilder und Videos von Parteien Wahlergeb­nisse bee­in­flussen kön­nen. „Im US-Wahlkampf waren Deep­fakes ein ver­bre­it­etes Mit­tel, um Wäh­ler zu manip­ulieren“, sagte Büh­ler. Laut Umfrage kann ein Großteil der Bundesbürger:innen (81 Prozent) durch den Ein­satz von KI kaum erken­nen, ob Fotos und Videos echt oder gefälscht sind. 77 Prozent geben an, dass sie den Wahrheits­ge­halt eines KI-gener­ierten Textes nicht erken­nen kön­nen. Und 45 Prozent sind der Mei­n­ung, dass die KI-Tech­nolo­gie eine Gefahr für die Demokratie ist. „Um die Risiken von Wahlma­nip­u­la­tion zu ver­ringern, müssen sich die demokratis­chen Parteien sowie öffentliche Insti­tu­tio­nen gegen Desin­for­ma­tion wapp­nen“, sagte Büh­ler. „Es braucht klare Leitlin­ien für den Ein­satz von KI im Wahlkampf und frei­willige Selb­stverpflich­tun­gen der poli­tis­chen Parteien zum ver­ant­wor­tungsvollen Umgang mit KI. Die Betreiber von Social-Media-Plat­tfor­men müssen konkrete Maß­nah­men ergreifen, um demokratis­che Prozesse zu schützen.“ Darüber hin­aus müsse der Ref­er­ente­nen­twurf für die deutschen Umset­zungs­bes­tim­mungen des EU AI Acts trotz Regierungskrise zügig fer­tiggestellt wer­den. Dies schaffe nicht nur Pla­nungs- und Rechtssicher­heit für Unternehmen und Prü­for­gan­i­sa­tio­nen, son­dern auch ein höheres Schutzniveau für die Bürger:innnen.

KI-Anwen­dun­gen wer­den zum Arbeitswerkzeug – Skep­sis gegenüber den Ergebnissen 

Die Umfrage zeigt, dass sich gen­er­a­tive KI-Anwen­dun­gen zu einem Arbeitswerkzeug entwick­eln: Die Hälfte der KI-Nutzen­den set­zt die Tools ein, um Texte kor­rekt zu ver­fassen (50 Prozent). Das sind zehn Prozent­punk­te mehr als im Vor­jahr. Fast eben­so viele nutzen KI für all­ge­meine Recherchezwecke oder als Alter­na­tive zur Inter­net­suche (48 Prozent). Gut ein Drit­tel der Befragten nutzt gen­er­a­tive KI für kreative und Prozesse wie Ideen­find­ung (36 Prozent) sowie zur Lösung von Prob­lem­stel­lun­gen (34 Prozent). Etwa jede:r Vierte nutzt sie zum Erstellen und Bear­beit­en von Bildern und Videos (24 Prozent) und jede:r Fün­fte für Über­set­zun­gen (20 Prozent). Immer­hin 44 Prozent nutzen KI-Anwen­dun­gen aus Spaß beziehungsweise zu Unter­hal­tungszweck­en. Was die Qual­ität der Ergeb­nisse ange­ht, sind die Mei­n­un­gen geteilt: Knapp die Hälfte der Nutzen­den hat nur geringes oder kein Ver­trauen in die Richtigkeit der Ergeb­nisse von KI-Anwen­dun­gen (48 Prozent). Dage­gen haben genau­so viele großes oder sehr großes Ver­trauen. 43 Prozent geben an, dass die Ergeb­nisse nicht konkret genug sind und 31 Prozent, dass sie oft fehler­haft oder falsch sind. Allerd­ings wis­sen sich die meis­ten zu helfen und über­prüfen die Ergeb­nisse von Chat­G­PT und Co. durch weit­ere Recherchen (78 Prozent). Immer­hin 44 Prozent fra­gen die KI nach Quellen, um Ergeb­nisse zu über­prüfen. „Die Skep­sis gegenüber der Ver­lässlichkeit von KI-Ergeb­nis­sen verdeut­licht, wie wichtig es ist, Kom­pe­ten­zen im Umgang mit KI-Tech­nolo­gien zu stärken“, betonte Büh­ler. „Der Erwerb von KI-Kom­pe­ten­zen und kon­tinuier­liche Weit­er­bil­dung sind der Schlüs­sel für einen ver­ant­wor­tungs­be­wussten Umgang mit der Tech­nolo­gie und gegen Manipulation.“

Mehrheit fordert Kennze­ich­nungspflicht für Kün­stliche Intelligenz 

Um die Gesellschaft vor möglichen Risiken von KI-Sys­te­men zu schützen, hat die EU im August 2024 die europäis­che KI-Verord­nung (EU AI Act) ver­ab­schiedet. Der AI Act teilt KI-Anwen­dun­gen in vier Risikok­lassen mit jew­eils unter­schiedlichen Anforderun­gen ein, die in den kom­menden Monat­en schrit­tweise erfüllt wer­den müssen. Die Anforderun­gen an Trans­parenz, Risiko­man­age­ment und Kennze­ich­nung von KI-gener­ierten Inhal­ten treten allerd­ings erst im August 2026 in Kraft. Eine deut­liche Mehrheit der Deutschen fordert Trans­parenz- und Kennze­ich­nungspflicht­en für KI-gener­ierte Inhalte (90 Prozent). Eine verpflich­t­ende Sicher­heit­sprü­fung von KI-Sys­te­men durch unab­hängige Prü­for­gan­i­sa­tio­nen hal­ten 83 Prozent für wichtig, damit Pro­duk­te und Anwen­dun­gen mit KI sich­er und ethisch vertret­bar sind. Und 80 Prozent hal­ten eine Reg­ulierung von KI für notwendig, um die Entwick­lung und den Ein­satz von KI ver­ant­wor­tungsvoll zu steuern. „Jet­zt gilt es, zügig einen ein­heitlichen Leit­markt für KI-Prü­fun­gen und ‑Zer­ti­fizierun­gen zu entwick­eln, damit ver­trauenswürdi­ge KI ‚Made in Europe‘ zu einem Alle­in­stel­lungsmerk­mal wird“, so Büh­ler. „Die TÜV-Unternehmen haben das TÜV AI.Lab gegrün­det, um Prüfmeth­o­d­en und Prüfw­erkzeuge für die Sicher­heit von KI zu entwick­eln. Jet­zt müssen sie als noti­fizierte Stelle zuge­lassen wer­den, um Prü­fung und Zer­ti­fizierung von KI durch­führen zu kön­nen. Um reale KI-Risiken gezielt reg­ulieren zu kön­nen, ist es wichtig, eine sys­tem­a­tis­che KI-Schadenssta­tis­tik aufzubauen. Mith­il­fe eines evi­denzbasierten Bildes real­er Schä­den mit KI-Beteili­gung oder KI-Aus­lös­er, kön­nen entsprechende Vorkehrun­gen gegen diese Risiken getrof­fen und das Ver­trauen der Bürg­erin­nen und Bürg­er in die Tech­nolo­gie gestärkt werden.“

Weit­ere Infor­ma­tio­nen und eine Präsen­ta­tion mit den Stu­di­energeb­nis­sen sind abruf­bar unter:

Methodik-Hin­weis: Grund­lage der Angaben ist eine repräsen­ta­tive For­sa-Umfrage im Auf­trag des TÜV-Ver­bands unter 1.001 Per­so­n­en zwis­chen 16 und 75 Jahren. Die Umfrage wurde vom 16. bis 24. Okto­ber 2024 durchgeführt.

Als TÜV-Ver­band e.V. vertreten wir die poli­tis­chen Inter­essen der TÜV-Prü­for­gan­i­sa­tio­nen und fördern den fach­lichen Aus­tausch unser­er Mit­glieder. Wir set­zen uns für die tech­nis­che und dig­i­tale Sicher­heit sowie die Nach­haltigkeit von Fahrzeu­gen, Pro­duk­ten, Anla­gen und Dien­stleis­tun­gen ein. Grund­lage dafür sind all­ge­me­ingültige Stan­dards, unab­hängige Prü­fun­gen und qual­i­fizierte Weit­er­bil­dung. Unser Ziel ist es, das hohe Niveau der tech­nis­chen Sicher­heit zu wahren, Ver­trauen in die dig­i­tale Welt zu schaf­fen und unsere Lebens­grund­la­gen zu erhal­ten. Dafür sind wir im regelmäßi­gen Aus­tausch mit Poli­tik, Behör­den, Medi­en, Unternehmen und Verbraucher:innen.