
Wer KI-Ergebnisse ungeprüft übernimmt, riskiert gravierende rechtliche und Reputations-Schäden.
Was Sie beim Einsatz von KI im Unternehmen befolgen müssen.
Unter obigem Titel erschien kürzlich ein Artikel im DER STANDARD, den wir als Aufhänger verwenden, um Ihr Problembewusstsein für die Nutzung von KI weiter zu schärfen. Und wir erläutern, was das für Sie in der Praxis bedeutet, denn: Für die KI-Nutzung gibt es zwingende Vorschriften, die Sie und Ihre Mitarbeiter einhalten müssen.
Fakt ist: Der Einsatz von KI-Systemen wie ChatGPT hat in den vergangenen Monaten rasant zugenommen. Viele Unternehmen sehen darin eine Möglichkeit, Prozesse zu automatisieren, Kosten zu senken und die Kundenkommunikation zu beschleunigen, vielleicht auch zu verbessern. Doch die Euphorie birgt erhebliche (Haftungs-)Risiken, die nicht unterschätzt werden dürfen.
Ein aktueller Fall vor dem Obersten Gerichtshof (OGH) zeigt dies deutlich.
Worum ging es? Eine Nichtigkeitsbeschwerde in einem Strafverfahren wurde offensichtlich mithilfe einer KI erstellt. Darin verwendete die KI frei erfundene höchstgerichtliche Entscheidungen. Der Fachausdruck hierfür ist „halluzinierende KI“. Der OGH lehnte daher die Beschwerde ab und sprach von „offenbar ohne fachliche Kontrolle erstellte Fehlzitate“. Ähnliche Berichte konnte man in den letzten Monaten bereits aus den USA, Australien und Brasilien lesen (siehe Link-Sammlung am Ende des Beitrags).
Dieses Beispiel macht klar: Wer KI-Ergebnisse ungeprüft übernimmt, riskiert gravierende rechtliche und Reputations-Schäden.
Tipp: Man sollte KI nur dort nutzen, wo man sich fachlich kompetent genug fühlt, um die Ergebnisse der KI auf Korrektheit überprüfen zu können.
Denn: Solche „Halluzinationen“ sind leider kein Einzelfall. KI-Modelle generieren Inhalte auf Basis statistischer Wahrscheinlichkeiten, nicht auf gesicherter Wahrheit, klaren Fakten. (Besonders) Für Unternehmen bedeutet das: Blindes Vertrauen in KI ist gefährlich. Jede automatisiert erstellte Information muss vor Weiterverwendung sorgfältig geprüft werden. Ganz besonders in starken regulierten Branchen wie Finanzdienstleistung und Versicherungen, wo falsche Angaben nicht nur zu finanziellen Verlusten, sondern auch zu regulatorischen Sanktionen führen können. Denn einerseits gibt es durch den AI Act der EU (auch als KI-Verordnung bekannt) bereits klare Verbote und Gebote für den Einsatz der KI.
Und als 2. Problembereich erwähnen wir heute noch kurz die Produkthaftung (damit beschäftigen wir uns im nächsten IVVA-Newsletter), die zwar nur für die Hersteller von Software gilt, aber umso wichtiger ist, damit Sie nicht auf dem Schaden gegenüber dem Kunden sitzen bleiben, sondern sich vom KI Hersteller zurückholen können.
Es geht darum, dass Sie als Dienstleister wie im Falle des Anwaltes nach schadenersatzrechtlichen Regeln dem Kunden gegenüber haften, wenn sie fehlerhafte KI anwenden, und sich dann die Frage stellt, ob sie den Schaden im Rahmen der Produkthaftung zurückholen können oder darauf sitzen bleiben.
Die EU-KI-Verordnung: Klare Pflichten und Verbote
Die EU-KI-Verordnung (AI Act) schafft einen verbindlichen Rechtsrahmen. Sie verfolgt einen risikobasierten Ansatz und unterscheidet zwischen minimalem, begrenztem, hohem und inakzeptablem Risiko.
Bereits seit Februar 2025 sind im Versicherungsvertrieb tätige Personen, die mit der Entwicklung oder dem Betrieb von KI-Systemen betraut sind, sowie diejenigen, die KI-Systeme einsetzen, verpflichtet, an Schulungen teilzunehmen.
Ebenso seit Februar 2025 sind KI-Systeme mit „inakzeptablem Risiko“ verboten, etwa solche, die das Verhalten von Menschen manipulieren oder Social Scoring betreiben. Damit soll angeblich China wünschenswertes Verhalten belohnen (gesetzestreues, soziales Engagement, pünktliche Rückzahlung von Krediten etc.) und unerwünschtes Verhalten (Falschparken, bei Rot über die Ampel gehen, Zahlungsverstoß, etc.) sanktionieren (kein Zugang zu Flügen, Uni, Jobs, Krediten usw.). So etwas ist in der EU verboten.
Nutzung von Chatbots
Seit August 2025 gelten zusätzliche Transparenzpflichten für Systeme mit begrenztem Risiko, wie Chatbots. Vollständig wirksam wird die Verordnung im August 2026. In einem aktuellen Vorschlag der EU-Kommission namens „Digital Omnibus“-Paket (das Erleichterungen von Bürokratievorgaben bringen soll), ist eine Verlängerung bis August 2027 vorgesehen. Dazu muss aber eine Trilog-Einigung mit EU-Parlament und EU-Rat erreicht werden, was noch aussteht.
Tipp: Schieben Sie Ihre Vorbereitungsarbeiten nicht auf die lange Bank, um vorbereitet zu sein, sollte diese Verlängerung nicht kommen!
Welche Hoffnungen unsere Branchen in den Einsatz von Chatbots setzen, haben wir bereits in einem Beitrag berichtet (hier zum Nachlesen…)
Welche Vorgaben Unternehmen beim Chatbot-Einsatz erfüllen müssen, fasste mein Kollege RA Lutz Riede in einem Gastbeitrag für DER STANDARD zusammen (Link unten anbei). Das Wichtigste: : Nutzer müssen erkennen können, dass sie mit einer KI interagieren. KI-generierte Inhalte sind als solche zu kennzeichnen. Auch müssen Anbieter und Betreiber Ex-ante- und Ex-post-Kontrollen durchführen, um die Richtigkeit der Informationen sicherzustellen. Verstöße können mit bis zu 15 Millionen € oder 3 Prozent des weltweiten Jahresumsatzes geahndet werden. Hinzu kommt die Pflicht zur Dokumentation: Unternehmen müssen nachweisen können, wie KI-Systeme trainiert wurden, welche Daten verwendet wurden und welche Maßnahmen zur Risikominimierung getroffen wurden.
Haftungsfragen: Wer trägt die Verantwortung?
Wie bereits oben erwähnt: Eine wichtige Frage ist: Wer haftet, wenn ein Algorithmus Fehler macht, Daten verfälscht oder ein Produkt unsicher wird? Damit beschäftigten wir uns im nächsten IVVA-Newsletter.
Um Ihnen zu zeigen, wie ernst die Anbieter von KI-Tools diesen Aspekt nehmen, verweisen wir auf eine aktuelle Entscheidung von OpenAI. Der „Anbieter von ChatGPT“ hat die Nutzung seiner Dienste für rechtliche und medizinische Beratung offiziell untersagt. Hintergrund sind laufende Verfahren in den USA wegen falscher medizinischer Auskünfte und sogar Anleitungen zum Suizid. Nachzulesen in einem aktuellen Artikel im DER STANDARD (den link finden Sie unten anbei). Dieses Verbot zeigt: Selbst führende KI-Anbieter sehen die Risiken als so gravierend an, dass sie bestimmte Anwendungen ihrer Tools ausschließen.
Tipp: Besonders für Unternehmen gilt: Wer KI einsetzt, muss die rechtlichen Grenzen kennen und einhalten.
Zwingende KI-Schulung: Kompetenz ist Pflicht
Ein zentraler Punkt der KI-Verordnung ist die verpflichtende Schulung aller Mitarbeiter, die KI-Systeme entwickeln, betreiben oder einsetzen. Bereits seit Februar 2025 gilt diese Pflicht im Versicherungsvertrieb, und ähnliche Anforderungen bestehen für den Wertpapierbereich. Die Schulungen müssen operative Aspekte, Risiken, ethische Fragen und regulatorische Vorgaben abdecken.
Warum ist das so wichtig? Weil KI-Anwendungen komplex sind und erhebliche Auswirkungen auf Geschäftsprozesse und Kundenbeziehungen haben. Fehlende Kompetenz erhöht das Risiko von Fehlentscheidungen und Haftungsfällen. Auch Datenschutz- und Urheberrechtsprobleme sind ein relevanter Grund. Das haben wir bereits in einem IVVA-Beitrag ausgeführt (hier zum Nachlesen… https://ivva.at/traditionelle-rechtsfallen-und-neue-ki-gefahren-nl-33-25/
Fazit: KI ist kein Garant für Erfolg. Niemals blind vertrauen.
Künstliche Intelligenz bietet enorme Chancen, unklar ist jedoch, was alles noch möglich werden wird. Doch die Risiken sind ebenso groß. Wer KI einsetzt, muss Ergebnisse kritisch prüfen und nicht blind vertrauen, Haftungsfragen kennen und rechtliche Grenzen einhalten, Transparenzpflichten umsetzen und Mitarbeiter verpflichtend schulen.
Nur so lässt sich sicherstellen, dass KI nicht vom Hoffnungsträger zum Haftungsrisiko wird.
Beste Grüße vom IVVA Team und Mag. Stephan Novotny
Quellen und nützliche Links:
- https://ivva.at/ki-einiges-bereits-verboten-fuer-rest-ist-schulung-noetig-nl-7b-25/
- https://ivva.at/traditionelle-rechtsfallen-und-neue-ki-gefahren-nl-33-25/
- https://ivva.at/ki-beruflich-nur-noch-nutzen-wenn-man-kompetent-genug-ist-nl-3-25/
https://ivva.at/mag-novotny-praktischer-ki-einsatz-in-der-versicherungsvermittlung-nl-10-25/
https://ivva.at/nuetzliche-muster-formulare-zur-ki-nutzung-nl-16b-25/ - https://www.derstandard.at/story/3000000294724/ki-halluzinierte-in-nichtigkeitsbeschwerde-ogh-wies-zur252ck
- https://www.derstandard.at/story/3000000293487/us-richter-lassen-ki-halluzinieren-die-schuld-bekommt-der-praktikant
- https://www.derstandard.at/story/3000000255910/chatgpt-schreibt-gerichtsakten-fuer-australischen-anwalt-erfindet-aber-den-inhalt
- https://www.derstandard.at/story/3000000289749/brasilianische-richter-nutzen-ki-um-der-flut-an-faellen-herr-zu-werden-anwaelte-legen-nach
- KI-Einsatz in der Justiz ist streng reglementiert – doch Fragen bleiben offen
- https://www.derstandard.at/story/3000000295706/antwortet-ein-mensch-oder-eine-maschine-bei-chatbots-gibt-es-kuenftig-mehr-transparenz
PS: Frohe Weihnachten und einen guten Rutsch in ein erfolgreiches, gesundes und friedliches 2026!

RA Mag. Stephan Novotny, Foto: Stephan Huger
RA Mag. Stephan Novotny
1010 Wien, Landesgerichtsstraße 16/12