
Experte warnt vor zu viel Vertrauen in KI.
Seit einigen Wochen beschäftigen wir uns mit dem Thema „künstliche Intelligenz“, kurz KI. Unser Ziel ist, Problembewusstsein dafür zu schaffen, dass man KI-Anwendungen (wie etwa ChatGPD von Open AI, Copilot von Microsoft, Übersetzungs-Tools, etc.) nicht „ungschaut“ im Unternehmen einsetzen darf. Da gibt es Datenschutz-, aber auch Urheberrechtsprobleme, bedenkliche Haftungsszenarien, einiges ist definitiv verboten, für anderes muss man seine Mitarbeiter schulen etc.
Unsere bisherigen Beiträge zum Thema möchten wir Ihnen weiterhin ans Herzen legen, weil
– z.B. durch die Nutzung von KI Sie zustimmen, dass Ihre Texte, Bilder, etc. für das Trainieren der KI verwendet werden (und sie garantieren sogar dem KI-Betreiber, dass Sie selbst alle Ihre Rechte an den Texten, Bilder, etc. haben, die Sie hochladen, also keine Urheberrechtsverletzung, etc. begehen würden).
– z.B. die Schulung Ihrer Mitarbeiter zwingend vorgeschrieben ist, wenn KI verwendet wird.
– z.B. einige KI-Anwendungen definitiv verboten sind.
Hier die Links zum Nachlesen: https://ivva.at/ki-einiges-bereits-verboten-fuer-rest-ist-schulung-noetig-nl-7b-25/
bzw. hier: https://ivva.at/ki-beruflich-nur-noch-nutzen-wenn-man-kompetent-genug-ist-nl-3-25/
und hier: https://ivva.at/mag-novotny-praktischer-ki-einsatz-in-der-versicherungsvermittlung-nl-10-25/
Oder hier: https://ivva.at/mag-novotny-wozu-stimmen-sie-zu-bei-nutzung-bei-nutzung-von-chatgpd-und-sonstiger-ki-nl-12-25/
Nicht blind vertrauen!
Heute möchten wir Sie darauf hinweisen, dass man die Ergebnisse der KI-Anwendung immer überprüfen sollte.
Einerseits, weil die künstliche Intelligenz nichts mit Intelligenz zu tun hat, sondern eigentlich ziemlich dumm ist.
Experten sagen, dass KI eine „funktionale Intelligenz“ aufweist, d.h. dass sie bestimmte Aufgaben so gut wie oder sogar besser als Menschen erledigen kann. Also etwa Muster in Texten aber auch in Bilder erkennen kann (was sehr nützlich ist, um frühzeitig Krebs auf Bildern feststellen zu können). Aber die KI versteht nicht die Bedeutung von Sprache, sondern Programme wie ChatGPD & Co erkennen nur „Sprach-Muster“ und versuchen darauf Antwort zu geben. Und oft genug sind die Ergebnisse falsch oder sogar frei erfunden, der Fachbegriff dafür ist „halluzinierende KI“. Also die KI erfindet schlicht und einfach irgendetwas, formuliert dies aber so überzeugend, dass man im Themenbereich selbst gut bewandert sein muss, um erkennen zu können, ob das Ergebnis der KI stimmt oder nicht.
Aber offensichtlich ist der „Glauben an die KI“ noch sehr hoch, die Überprüfung der KI-Ergebnisse nach wie vor selten anzutreffen.
Das bestätigt auch eine internationale Studie der Prüfungs- und Beratungsgesellschaft EY (besser bekannt unter Ernst & Young).
Nur gut ein Viertel der Nutzer in Deutschland überprüft der Umfrage zufolge die Ergebnisse, die KI-Chatbots wie ChatGPT, Google Gemini und Microsoft Copilot erstellen.
Die Kontrollbereitschaft am höchsten ist laut Studie in Südkorea (42%) sowie in China und Indien (je 40%). Das erscheint mir sehr aufschlussreich, weil diese Länder bekanntlich zu den Führenden im Bereich der Computer-Technologie, Digitalisierung und wohl auch KI sind. Also die „Experten“ scheinen kritischer zu sein, als der Durchschnitt der Anwender.
Merklich seltener überprüfen etwa die Deutschen, Franzosen und Schweden ihre KI-Ergebnisse (23%). Ich nehme an, dass dies wohl auch für österreichische Nutzer vergleichbar gelten wird.
Für die repräsentative Umfrage wurden zwischen Dezember 2024 und Februar 2025 gut 15.000 Menschen in 15 Ländern befragt – mehr als 1.000 davon in Deutschland.
„Ein Weckruf“ – Experte warnt vor zu viel Vertrauen
Der Deutschen Presse-Agentur dpa gegenüber warnte EY-Experte David Alich daher vor blindem Vertrauen in diese Technologie.
„Der Anteil der KI-Nutzer sei zuletzt rasant gestiegen, vor allem im Bereich der Text- und Bild-Erstellung. Immer mehr Menschen erlebten KI sowohl beruflich als auch privat als nützliches Werkzeug.
Ihr Einsatz müsse allerdings trainiert werden, andernfalls berge die Technologie auch Risiken. Denn KI-Ergebnisse seien zwar oft gut, aber beileibe nicht perfekt. Es sei meistens eine menschliche Kontrollinstanz nötig“.
Und:
„Dass nur jede und jeder Vierte die KI-Ergebnisse überprüft, sollte ein Weckruf sein und spricht für einen zu sorglosen Umgang mit der Technologie“, so Alich.
Dieser könne insbesondere im beruflichen Umfeld schwerwiegende Folgen haben – für die Anwender selbst, aber auch für ihre Arbeitgeber.
Quelle: versicherungsmagazin.de, Deutsche Presse-Agentur (dpa)
Beste Grüße vom IVVA Team und Mag. Novotny

RA Mag. Stephan Novotny, Foto: Stephan Huger
RA Mag. Stephan Novotny
1010 Wien, Landesgerichtsstraße 16/12