TÜV-Verband Studie: Ein Jahr ChatGPT

Ein Jahr ChatGPT: Gut ein Drittel nutzt die KI für Unterhaltung, Recherchen und Inspiration – viele misstrauen den Ergebnissen

 

TÜV-Verband Studie: Mehrheit erwartet positive Auswirkungen Künstlicher Intelligenz auf Privat- und Arbeitsleben. Hoher Bedarf für KI-Weiterbildungen bei Erwerbstätigen. Bundesbürger:innen fordern gesetzliche Vorgaben, um Risiken einzudämmen. Verhandlungen in Brüssel: Europäischen „AI Act“ jetzt zügig verabschieden.  

Ein Jahr nach der Einführung von ChatGPT verbreiten sich Anwendungen generativer Künstlicher Intelligenz (KI) rasant: Gut jede:r Dritte Bundesbürger:in hat bereits ChatGPT genutzt (37 Prozent). Im Vergleich zum April ist das ein Zuwachs von 14 Prozentpunkten. Das ist das Ergebnis einer repräsentativen Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.008 Personen ab 16 Jahren. Demnach haben 85 Prozent der Befragten schon einmal von ChatGPT gehört oder darüber gelesen (plus 2 Punkte). „ChatGPT und andere KI-Anwendungen entwickeln sich zu wichtigen Werkzeugen für das berufliche und private Leben der Nutzer“, sagte Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands, bei der Vorstellung der Studienergebnisse.

„Fast ein Viertel nutzt ChatGPT für die Lösung verschiedenster Probleme (23 Prozent) und 12 Prozent programmieren damit.“

Laut Umfrage sind die wichtigsten Anwendungen Unterhaltungszwecke (52 Prozent), Recherchen (44 Prozent), die Erstellung von Texten (40 Prozent) oder die Generierung und Bearbeitung von Fotos oder Videos (26 Prozent). Fast ein Viertel nutzt ChatGPT für die Lösung verschiedenster Probleme (23 Prozent) und 12 Prozent programmieren damit. Allerdings gibt es auch Vorbehalte und Sorgen rund um den Einsatz von KI. Gut die Hälfte der Befragten hat kein Vertrauen in die Ergebnisse generativer KI-Anwendungen (56 Prozent).  Und eine überwältigende Mehrheit von 83 Prozent ist der Meinung, dass es gesetzliche Vorgaben für den sicheren Einsatz Künstlicher Intelligenz geben sollte. „Nach der EU hat sich jetzt auch die US-Regierung zu einem Rechtsrahmen für Künstliche Intelligenz bekannt“, sagte Bühler. „Die Verhandlungen für den europäischen AI Act sind auf der Zielgeraden und müssen jetzt zu einem erfolgreichen Ende geführt werden.“

Laut den Ergebnissen der Umfrage erwartet eine breite Mehrheit, dass sich die Technologie positiv auf ihr Leben auswirken wird. Aus Sicht von 55 Prozent hat KI das Potenzial, die Befragten in ihrem privaten Leben zu unterstützen. Bei 58 Prozent gilt das auch für den eigenen Beruf. Fast die Hälfte der Erwerbstätigen erwartet, dass Künstliche Intelligenz in fünf Jahren eine große oder sehr große Rolle für ihre berufliche Tätigkeit spielen wird. „Künstliche Intelligenz ist gekommen, um zu bleiben“, sagte Bühler. „Ein Jahr ChatGPT hat gezeigt, dass KI direkte oder auch indirekte Auswirkungen auf das Arbeitsleben sehr vieler Berufstätiger haben wird.“ Fast jede:r dritte Erwerbstätige befürchtet, beruflich abgehängt zu werden, wenn sie die Technologie nicht beherrschen (31 Prozent). Und fast zwei Drittel der Befragten hält eine Weiterbildung zu Künstlicher Intelligenz für ihre berufliche Tätigkeit für sinnvoll (63 Prozent). „Unsicherheit besteht noch darüber, inwieweit KI-Systeme eine echte Gefahr für den eigenen Arbeitsplatz sind oder diesen wie Computer, Internet oder Smartphone schrittweise verändern werden“, sagte Bühler. Gut die Hälfte der Erwerbstätigen ist der Meinung, dass KI-Systeme Routineaufgaben ihrer beruflichen Tätigkeit übernehmen werden oder das jetzt schon tun. Und immerhin 29 Prozent glauben, dass KI ihre berufliche Tätigkeit ganz oder teilweise ersetzen könnte.

„Eine große Mehrheit von 91 Prozent fordert daher eine Transparenz- und Kennzeichnungspflicht für Inhalte, die mit Hilfe von Künstlicher Intelligenz erzeugt worden sind.“

Große Mehrheit sieht erhebliche Risiken beim Einsatz von KI

Trotz einer insgesamt aufgeschlossenen Haltung zu Künstlicher Intelligenz sehen die Befragten auch erhebliche Gefahren. Gut drei von vier stimmen der Aussage zu, dass beim Einsatz von KI-Technologie derzeit nicht abschätzbare Risiken bestehen (78 Prozent). Insbesondere die Folgen der KI-Nutzung für das Mediensystem und die Demokratie sehen die Bundesbürger:innen kritisch. 92 Prozent glauben, dass mit dem Einsatz von KI kaum noch erkennbar sein wird, ob Fotos oder Videos echt oder gefälscht sind. Dass der Wahrheitsgehalt eines mit Hilfe von KI generierten Textes nicht mehr erkennbar ist, meinen 83 Prozent. Und 81 Prozent erwarten, dass KI-Technologie die Verbreitung von „Fake News“ massiv beschleunigen wird. Eine große Mehrheit von 91 Prozent fordert daher eine Transparenz- und Kennzeichnungspflicht für Inhalte, die mit Hilfe von Künstlicher Intelligenz erzeugt worden sind. Und 86 Prozent der Bundesbürger:innen halten eine verpflichtende Prüfung der Qualität und Sicherheit von KI-Systemen durch unabhängige Prüforganisationen wie zum Beispiel den TÜV für notwendig.

Aus Sicht des TÜV-Verbands müssen die finalen Verhandlungen über die europäische KI-Verordnung („AI Act“) jetzt zügig abgeschlossen werden. „Nach der Europäischen Union strebt jetzt auch die US-Regierung mit einer Executive Order von Präsident Biden Regelungen für die sichere Entwicklung und Nutzung Künstlicher Intelligenz an“, sagte Bühler. „Die EU darf ihre globale Vorreiterrolle bei der Schaffung sicherer Rahmenbedingungen für die Entwicklung sicherer und vertrauenswürdiger KI nicht verspielen.“ Ein Streitpunkt in den finalen Trilog-Verhandlungen ist der Umgang mit so genannten KI-Basismodellen, die je nach Leistungsfähigkeit auch so genannte „Allzweck KI“ (General Purpose AI) wie ChatGPT umfassen. „Die Beteiligten sollten sich hier auf einen Kompromiss einigen“, forderte Bühler. Der von einigen Ländern geforderte vollständige Verzicht auf eine Regulierung der KI-Basismodelle widerspreche dem Geist des AI Act. Stattdessen sollten auch hier grundlegende Transparenzpflichten als Mindestanforderung festgelegt werden. Als entscheidender Termin der Trilog-Verhandlungen gilt der 6. Dezember.

„Die EU darf ihre globale Vorreiterrolle bei der Schaffung sicherer Rahmenbedingungen für die Entwicklung sicherer und vertrauenswürdiger KI nicht verspielen.“

Der AI Act sieht vor, KI-Anwendungen in vier Risikoklassen einzuteilen. Je nach Risiko müssen die Anbieter unterschiedliche Anforderungen erfüllen. „Der Großteil der KI-Anwendungen muss keinerlei Vorgaben erfüllen“, sagte Bühler. Andere KI-Systeme wie Social Scoring werden dagegen komplett verboten. KI-Systeme mit einem „begrenzten Risiko“ wie einfache Chatbots müssen bestimmte Transparenz- und Kennzeichnungspflichten erfüllen. Für KI-Anwendungen mit einem „hohem Risiko“, zum Beispiel in kritischen Infrastrukturen, Software im Personalwesen oder bestimmte KI-basierte Roboter, gelten strengere Sicherheitsanforderungen wie die Nachvollziehbarkeit ihrer Ergebnisse oder Diskriminierungsfreiheit.

Auf nationaler Ebene muss aus Sicht des TÜV-Verbands schon jetzt die Umsetzung der KI-Vorgaben vorbereitet werden. Basis dafür sind Normen, Standards und Qualitätskriterien. Darüber hinaus müssen entsprechende Prüf- und Testverfahren entwickelt werden. Die TÜV-Unternehmen haben das „TÜV AI.Lab“ gegründet und arbeiten mit Forschungseinrichtungen, Verbänden und Normungsinstituten zusammen. Notwendig ist auch eine Informationsoffensive für die Wirtschaft. Bühler: „Vor allem mittelständische Unternehmen und Startups brauchen Unterstützung bei der Umsetzung der Vorgaben.“

Methodik-Hinweis:
Grundlage der Angaben ist eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.008 Personen ab 16 Jahren, darunter 649 Erwerbstätige. Die Umfrage wurde im Oktober 2023 durchgeführt.

 

Präsentation der Pressekonferenz „ChatGPT und Co.: Sicherheit von Künstlicher Intelligenz“

 

 

 

Aufmacherbild / Quelle / Lizenz
Image by Franz Bachinger from Pixabay