Ethische Fragen umkreisen den Einsatz künstlicher Intelligenz in der Veterinärmedizin – Rückblick

Künstliche Intelligenz wird an Tierärzte für Radiologie und Bildgebung vermarktet, vor allem, weil es nicht genügend Veterinärradiologen gibt, um den Bedarf zu decken.
Bild von Mirko Sajkov

Seit Jahren raten Veterinärmediziner zur Vorsicht bei der Verwendung von „Dr. Google“ durch Pferdebesitzer. Angesichts des zunehmenden Einsatzes künstlicher Intelligenz (KI) in der Veterinärmedizin warnen Veterinärexperten heute davor, dass die Eile zur Übernahme der Technologie bestimmte ethische Überlegungen aufwirft.

„Ein wesentlicher Unterschied zwischen der Veterinärmedizin und der Humanmedizin besteht darin, dass Tierärzte Patienten einschläfern können – was verschiedene medizinische und finanzielle Gründe haben kann –, sodass der Einsatz der von KI-Algorithmen bereitgestellten Diagnosen sehr hoch ist“, sagt Eli Cohen , Partnerin. klinischer Professor für Radiologie am College of Veterinary Medicine der North Carolina State University.

“Menschliche KI-Produkte müssen validiert werden, bevor sie auf den Markt gebracht werden, aber derzeit gibt es keine behördliche Aufsicht für veterinäre KI-Produkte.”

In einer in der Zeitschrift veröffentlichten Rezension Tierärztliche Radiologie und Ultraschall, diskutiert Cohen die ethischen und rechtlichen Fragen, die durch die derzeit verwendeten Veterinär-AI-Produkte aufgeworfen werden. Es hebt auch die wichtigsten Unterschiede zwischen der veterinärmedizinischen KI und der KI hervor, die von menschlichen Ärzten verwendet wird.

AI wird derzeit an Tierärzte für Radiologie und Bildgebung vermarktet, vor allem, weil es in der Praxis nicht genügend tierärztliche Radiologen gibt, um den Bedarf zu decken.

Cohen weist jedoch darauf hin, dass die KI-Bildanalyse nicht dasselbe ist wie ein ausgebildeter Radiologe, der Bilder im Lichte der Krankengeschichte und der einzigartigen Situation eines Tieres interpretiert.

Obwohl KI bestimmte Zustände auf einem Röntgenbild genau identifizieren kann, sollten Benutzer die potenziellen Einschränkungen verstehen. Beispielsweise ist die KI möglicherweise nicht in der Lage, alle möglichen Zustände zu identifizieren und kann möglicherweise nicht genau zwischen Zuständen unterscheiden, die auf Röntgenbildern ähnlich erscheinen, aber unterschiedliche Behandlungsverläufe haben. .

Derzeit regelt die Food and Drug Administration (FDA) der Vereinigten Staaten keine KI in Tierarzneimitteln, wie dies in der Humanmedizin der Fall ist. Veterinärprodukte können ohne Aufsicht auf den Markt kommen, die über die des KI-Entwicklers und der Gesellschaft hinausgeht.

„KI und ihre Funktionsweise sind oft eine Black Box, was bedeutet, dass selbst die Entwickler nicht wissen, wie sie zu Entscheidungen oder Diagnosen kommen“, sagt Cohen. „Fügen Sie dazu einen Mangel an Unternehmenstransparenz bei der Entwicklung von KI hinzu, einschließlich der Art und Weise, wie die KI trainiert und validiert wurde, und Sie bitten Tierärzte, ein Diagnosetool zu verwenden, ohne die Möglichkeit zu haben, zu beurteilen, ob es genau ist oder nicht.

„Da Tierärzte oft einen einzigen Besuch erhalten, um einen Patienten zu diagnostizieren und zu behandeln, und nicht immer eine Nachsorge erhalten, könnte KI Fehldiagnosen oder unvollständige Diagnosen stellen, und ein Tierarzt hätte nur begrenzte Möglichkeiten, dies zu erkennen, es sei denn, der Fall wird überprüft oder ist ein ernster Fall Ergebnis eintritt“, sagt Cohen.

„KI wird als Ersatz oder mit einem ähnlichen Wert wie die Interpretation eines Radiologen vermarktet, weil es eine Marktlücke gibt. Der beste Einsatz von KI in der Zukunft und sicherlich in dieser ersten Phase des Einsatzes ist mit einem sogenannten Radiologen in the loop, wo die KI zusammen mit einem Radiologen eingesetzt wird, nicht nur mit einem”, sagt Cohen.

„Dies ist der ethischste und vertretbarste Weg, diese aufkommende Technologie zu nutzen: Sie zu nutzen, damit mehr Tierärzte und Haustiere Zugang zu radiologischen Konsultationen haben, aber noch wichtiger, Experten auf dem Gebiet zu haben, die KI-Fehler beheben und Nebenwirkungen und Schäden für Patienten verhindern. “

Cohen empfiehlt, dass Veterinärexperten mit KI-Entwicklern zusammenarbeiten, um die Qualität der Datensätze sicherzustellen, die zum Trainieren des Algorithmus verwendet werden, und dass Validierungstests von Drittanbietern durchgeführt werden, bevor KI-Tools für die Öffentlichkeit freigegeben werden.

„Fast alles, was ein Tierarzt auf Röntgenbildern diagnostizieren könnte, kann ein mittleres bis hohes Risiko darstellen, was bedeutet, dass es zu Änderungen in der medizinischen Behandlung, Operation oder Euthanasie führen kann, entweder aufgrund der klinischen Diagnose oder aufgrund finanzieller Einschränkungen des Kunden.

„Dieses Risikoniveau ist der Schwellenwert, den die FDA in der Humanmedizin verwendet, um zu bestimmen, ob ein Radiologe in der Schleife sein sollte. Als Berufsstand täten wir gut daran, ein ähnliches Modell anzunehmen.

„KI ist ein leistungsstarkes Werkzeug und wird die Art und Weise verändern, wie Medizin praktiziert wird, aber die beste Praxis für die Zukunft wird sein, sie gemeinsam mit Radiologen einzusetzen, um den Zugang und die Qualität der Patientenversorgung zu verbessern, anstatt sie zu verwenden, um diese Konsultationen zu ersetzen.“

Das Tagebuch: „Erstens, schade nicht. Ethical and Legal Issues of Artificial Intelligence and Machine Learning in Veterinary Radiology and Radiooncology“, erscheint in der Ausgabe der Zeitschrift vom 13. Dezember. Cohen hat es zusammen mit Ira Gordon geschrieben.

Cohen, EB, Gordon, IK. Erstens, schade nicht. Ethische und rechtliche Fragen der künstlichen Intelligenz und des maschinellen Lernens in der Veterinärradiologie und Radioonkologie. Tierärztlicher Röntgen-Ultraschall. 2022; 63 (Beilage 1): 840–850. https://doi.org/10.1111/vru.13171

Die Rezension, veröffentlicht unter a Creative Commons Licensegelesen werden kann Hier.

Leave a Comment