#383 - Vom KI-Betreiber zum Anbieter: Haftung und Risiken - Im Gespräch mit Prof. Dr. Philipp Hacker Podcast Por  arte de portada

#383 - Vom KI-Betreiber zum Anbieter: Haftung und Risiken - Im Gespräch mit Prof. Dr. Philipp Hacker

#383 - Vom KI-Betreiber zum Anbieter: Haftung und Risiken - Im Gespräch mit Prof. Dr. Philipp Hacker

Escúchala gratis

Ver detalles del espectáculo

Acerca de esta escucha

Vom KI-Betreiber zum Anbieter: Haftung und Risiken Künstliche Intelligenz verändert viele Branchen grundlegend. Doch wer haftet eigentlich, wenn KI-Systeme eingesetzt werden? Während Anbieter KI-Modelle entwickeln und bereitstellen, sind Betreiber diejenigen, die diese Modelle für ihre Zwecke nutzen. Doch in manchen Fällen können Betreiber rechtlich zu Anbietern werden – mit weitreichenden Konsequenzen. Prof. Dr. Philipp Hacker auf LinkedIn: LinkedIn - https://www.linkedin.com/in/philipp-hacker Betreiber vs. Anbieter: Wo liegt der Unterschied? Ein Betreiber ist eine Organisation oder Person, die ein KI-System unter eigener Aufsicht einsetzt. Typischerweise sind das beispielsweise Ärztinnen und Ärzte, die ein KI-gestütztes Diagnosetool verwenden. Ein Anbieter hingegen entwickelt oder vertreibt ein KI-Modell Die entscheidende Frage ist, wann Betreiber die Grenze zum Anbieter überschreiten. Dafür gibt es mehrere relevante Faktoren. Branding – Die „Scheinhaftung“ Wer eine bestehende KI-Lösung unter eigenem Namen oder eigener Marke anbietet, übernimmt rechtlich Verantwortung. Wenn ein Unternehmen beispielsweise eine bestehende KI in „BoschGPT“ umbenennt, wird es nicht mehr nur als Betreiber, sondern rechtlich wie ein Anbieter behandelt. Unternehmen sollten vermeiden, ein generisches KI-Modell mit der eigenen Marke zu verknüpfen, um unerwünschte Haftungsrisiken zu umgehen. Zweckänderung – KI für Hochrisikoanwendungen nutzen Ein KI-Modell ist nicht automatisch „hochrisikoreich“. General Purpose AI wie GPT oder Claude fällt nicht per se in diese Kategorie. Wird ein solches Modell jedoch in einem Hochrisikobereich wie medizinischer Diagnostik oder Recruiting-Prozessen eingesetzt, wird das Unternehmen rechtlich zum Anbieter. Der ursprüngliche Entwickler kann nicht nachvollziehen, wie Millionen von Nutzern seine KI einsetzen. Deshalb trifft die Verantwortung denjenigen, der die KI für ein Hochrisiko-Szenario nutzt. Sobald eine KI zur Kreditbewertung oder Personalauswahl eingesetzt wird, greift die Hochrisikoklassifizierung. Das Unternehmen muss sicherstellen, dass das Modell für diesen Zweck zertifiziert und geeignet ist. Feintuning – Anpassung eines bestehenden Modells Wer ein KI-Modell durch Feintuning verändert, kann ebenfalls zum Anbieter werden. Das gilt insbesondere dann, wenn das Modell ursprünglich nicht für den Hochrisikobereich bestimmt war. Wenn ein Unternehmen eine offene KI wie Llama oder Mistral mit spezifischen Daten für ein HR-Tool trainiert, kann es als Anbieter eingestuft werden. Die bloße Nutzung einer spezialisierten Software, die bereits als Hochrisikoprodukt zertifiziert ist, macht ein Unternehmen nicht zum Anbieter. Entscheidend ist, ob durch Feintuning eine wesentliche Änderung am Modell vorgenommen wird. Fine-Tuning kann neue Transparenz- und Compliance-Pflichten auslösen, insbesondere nach Artikel 55 der KI-Verordnung. Unternehmen müssen sich mit zusätzlichen Anforderungen wie Red-Teaming und Risikoanalysen auseinandersetzen. Möglichkeiten zur Risikominimierung Unternehmen können verschiedene Strategien nutzen, um rechtliche Fallstricke zu vermeiden. Es ist ratsam, keine eigene Marke auf bestehende KI-Modelle zu setzen, um eine Anbieterhaftung zu umgehen. General Purpose AI sollte nicht für Hochrisiko-Anwendungen genutzt werden, es sei denn, das Modell ist dafür zertifiziert. Feintuning sollte nur mit Bedacht eingesetzt werden. Alternativen wie Prompt Engineering oder Retrieval-Augmented Generation (RAG) verändern das Modell selbst nicht und können eine bessere Argumentationsgrundlage bieten, um nicht als Anbieter zu gelten. Ein weiterer Ansatz ist die Nutzung kleinerer Modelle mit weniger als 10^25 FLOPs, da diese unter regulatorischen Schwellenwerten bleiben. In manchen Fällen kann es auch sinnvoll sein, Haftung gezielt auszulagern, etwa durch die Gründung einer separaten Fazit Unternehmen, die KI-Modelle einsetzen, sollten sich bewusst sein, dass sie schnell vom Betreiber zum Anbieter werden können – mit erheblichen rechtlichen und regulatorischen Konsequenzen. Die sichere Nutzung von KI erfordert daher ein grundlegendes Verständnis der rechtlichen Rahmenbedingungen. Wer auf Hochrisikobereiche setzt oder Feintuning betreibt, sollte sich intensiv mit den Pflichten und Risiken auseinandersetzen. Wer Feintuning oder Hochrisiko-KI einsetzt, sollte sich frühzeitig mit KI-Compliance-Experten austauschen, um Haftungsrisiken zu minimieren. Noch mehr von den Koertings ... Das KI-Café ... jede Woche Mittwoch (>350 Teilnehmer) von 08:30 bis 10:00 Uhr ... online via Zoom .. kostenlos und nicht umsonstJede Woche Mittwoch um 08:30 Uhr öffnet das KI-Café seine Online-Pforten ... wir lösen KI-Anwendungsfälle live auf der Bühne ... moderieren Expertenpanel zu speziellen Themen (bspw. KI im Recruiting ... KI in der Qualitätssicherung ... KI im Projektmanagement ... und vieles mehr) ... ordnen die ...
Todavía no hay opiniones