Ein Chatbot von Air Canada versprach einem Nutzer eine Rückerstattung bei Todesfall – obwohl das Unternehmen dafür keine solche Richtlinie hatte. Das Problem: Die KI halluzinierte. Air Canada wurde dafür sogar gerichtlich verantwortlich gemacht.
Solche Fehler sind kein Einzelfall, sondern Symptome mangelnder Absicherung in der Entwicklung und Integration von KI-Systemen.
Beim ISTE beschäftigen wir uns genau mit solchen Fragen:
Wie bauen wir KI-Systeme, die verlässlich, transparent und rechtlich robust sind. Wie hätten wir einen solchen Fehler verhindert?
- KI-Systemarchitektur mit Verantwortung
Unsere Experten entwickeln und prüfen Architekturen, die LLMs durch gesicherte Wissensquellen (z. B. über RAG oder Wissensgraphen) erden. Keine Halluzination – keine Haftungslücke. - Wissensgraphen & Policy-Governance
Wir modellieren unternehmensspezifisches Wissen formal – von Rückerstattungsrichtlinien bis zu Ausnahmeprozessen – und binden es kontrolliert in KI-Systeme ein. - „Safe-by-Design“-Evaluierung
Mit unserem interdisziplinären Framework (Technik + Recht + UX) stellen wir sicher, dass Systeme sich in kritischen Fällen zurückhalten, statt zu fantasieren. - Audits & Zertifizierungen für vertrauenswürdige KI
Wir bieten begleitende Qualitäts- und Sicherheitsevaluierungen für Chatbots, Agenten und generative KI – von Prompt-Testing bis Fact Consistency Checking.
Unser Ziel: KI soll nicht beeindrucken – sondern halten, was sie verspricht.
Wenn Sie generative KI in Ihrem Unternehmen einsetzen wollen – sicher, kontrolliert und haftungskonform – sprechen Sie mit uns. Der nächste Air-Canada-Moment muss nicht passieren.

