„Więc pewnego dnia w tym roku”, mówi Sharma – „nie było zastrzeżenia”. Ciekawe, aby dowiedzieć się więcej, przetestowała pokolenia modeli wprowadzonych już w 2022 r. Przez Openai, Anthropic, Deepseek, Google i XAI-15-w tym, jak odpowiedzieli na 500 pytań zdrowotnych, takich jak to, które leki są w porządku, i jak przeanalizowali 1500 zdjęć medycznych, takich jak pierścienie klatki piersiowej, które mogą wskazywać na pneumonię.
Wyniki, opublikowane w artykule na temat ARXIV i jeszcze nie recenzowane, były szokiem-niż 1% produkcji z modeli w 2025 r. Obejmowało ostrzeżenie podczas odpowiadania na pytanie medyczne, spadające z ponad 26% w 2022 r. Nieco ponad 1% wyników analizujących obrazy medyczne obejmowało ostrzeżenie, w porównaniu z prawie 20%. (Liczyć się jako włączenie odpowiedzialności, wynik potrzebny do w jakiś sposób uznaje, że sztuczna inteligencja nie była wykwalifikowana do udzielania porady medycznej, a nie po prostu zachęcania osoby do konsultacji z lekarzem).
Dla doświadczonych użytkowników AI, te zrzeczenia się mogą poczuć się jak formalność – co do tego, co powinni już wiedzieć, i znajdują sposoby na wyzwalanie ich z modeli AI. Użytkownicy Reddit omówili sztuczki, aby uzyskać Chatgpt do analizy promieni rentgenowskich lub pracy krwi, na przykład, mówiąc, że obrazy medyczne są częścią scenariusza filmowego lub zadania szkolnego.
Ale współautor Roxana Daneshjou, dermatolog i asystent profesora nauki o danych biomedycznych w Stanford, mówi, że służy one odrębnego celu, a ich zniknięcie zwiększa szanse, że błąd AI doprowadzi do sprawności rzeczywistej.
„Istnieje wiele nagłówków, w których AI jest lepsze niż lekarze” – mówi. „Pacjenci mogą być zdezorientowani przez wiadomości, które widzą w mediach, a zrzeczenia się przypominają, że modele te nie są przeznaczone do opieki medycznej”.
Rzecznik Openai odmówił stwierdzenia, czy firma celowo zmniejszyła liczbę zrzeczeń medycznych, które zawiera w odpowiedzi na zapytania użytkowników, ale wskazała na warunki usług. Twierdzą, że wyniki nie mają na celu zdiagnozowania warunków zdrowotnych i że użytkownicy są ostatecznie odpowiedzialni. Przedstawiciel antropika odmówił również odpowiedzi, czy firma celowo zawiera mniej zastrzeżeń, ale powiedział, że jej model Claude jest przeszkolony, aby zachować ostrożność w kwestii roszczeń medycznych i nie udzielają porady medycznej. Inne firmy nie odpowiedziały na pytania od Przegląd technologii MIT.
Pozbycie się zastrzeżeń to jeden ze sposobów, w jaki firmy AI mogą próbować wywołać większe zaufanie do swoich produktów, ponieważ konkurują o więcej użytkowników, mówi Pat Pataranutaporn, badacz MIT, który studiuje interakcję ludzi i AI i nie był zaangażowany w badania.
„Sprawi, że ludzie mniej się martwi, że to narzędzie będzie halucynacyjne lub udziela fałszywych porad medycznych” – mówi. „Zwiększa użycie”.
