Biegowelove.pl

informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Oddział ratunkowy wypełniony po brzegi? Któregoś dnia z pomocą może przyjść sztuczna inteligencja

Badanie przeprowadzone na Uniwersytecie Kalifornijskim w San Francisco wykazało, że sztuczna inteligencja równie dobrze jak lekarz ustala priorytety pacjentów, którzy powinni się zgłosić w pierwszej kolejności.

Oddziały ratunkowe w całym kraju są przepełnione i przeciążone, ale nowe badanie sugeruje, że sztuczna inteligencja (AI) może pewnego dnia pomóc w ustalaniu priorytetów dla pacjentów, którzy pilnie potrzebują leczenia.

Korzystając z anonimowych zapisów 251 000 wizyt dorosłych na oddziałach ratunkowych, naukowcy z Uniwersytetu Kalifornijskiego w San Francisco ocenili, jak dobrze model sztucznej inteligencji może wyodrębniać objawy z notatek klinicznych pacjentów, aby natychmiast określić potrzebę leczenia. Następnie porównali analizę sztucznej inteligencji z wynikami pacjentów w ramach Emergency Severity Index, skali od 1 do 5, z której korzystają pielęgniarki oddziałów ratunkowych, gdy pacjenci przybywają, aby przydzielić opiekę i zasoby najbardziej potrzebującym – proces znany jako triage.

Na potrzeby badania dane pacjentów oddzielono od ich rzeczywistej tożsamości (pozbawiono możliwości identyfikacji), które opublikowano 7 maja 2024 r. w czasopiśmie Sieć JAMA jest otwarta. Naukowcy ocenili dane za pomocą modelu dużego języka ChatGPT-4 (LLM) i uzyskali do nich dostęp za pośrednictwem bezpiecznej platformy generatywnej sztucznej inteligencji UCSF, która zapewnia rozbudowane zabezpieczenia prywatności.

Naukowcy przetestowali skuteczność LLM na próbie 10 000 dopasowanych par – w sumie 20 000 pacjentów – wśród których był jeden pacjent z poważnym stanem, takim jak udar, i drugi z mniej pilnym stanem, takim jak złamany nadgarstek. Patrząc na same objawy pacjentów, sztuczna inteligencja była w stanie w 89% przypadków zidentyfikować, który pacjent z oddziałem ratunkowym miał poważniejszy stan.

W podpróbce 500 par ocenionej przez lekarza i LLM, sztuczna inteligencja była poprawna w 88% przypadków, w porównaniu z 86% w przypadku lekarza.

Wspomaganie sztucznej inteligencji w procesie segregacji może zwolnić kluczowy czas lekarzy na leczenie pacjentów z najpoważniejszymi schorzeniami, zapewniając jednocześnie dodatkowe narzędzia do podejmowania decyzji lekarzom zajmującym się wieloma pilnymi zgłoszeniami.

READ  Chcesz wiedzieć, czy istnieje większe prawdopodobieństwo zachorowania na chorobę psychiczną w późniejszym życiu? Mapowanie aktywności mózgu podczas snu może nam powiedzieć: badanie

„Wyobraźmy sobie dwóch pacjentów, których trzeba przewieźć do szpitala, ale jest tylko jedna karetka” – powiedziała. „Albo lekarz jest na wezwanie, a dzwonią do niej trzy osoby w tym samym czasie i ona musi zdecydować, komu odpowiedzieć Pierwszy.” Główny autor Christopher Williams, MB, BChir, jest badaczem ze stopniem doktora na Uniwersytecie Kalifornijskim w Paccar w Instytucie Obliczeniowych Nauk o Zdrowiu.

Niezupełnie gotowy na czas największej oglądalności

To badanie jest jednym z niewielu, w którym ocenia się LLM przy użyciu rzeczywistych danych klinicznych, a nie symulowanych scenariuszy, i jest pierwszym, w którym wykorzystano do tego celu ponad 1000 przypadków klinicznych. Jest to także pierwsze badanie, w którym wykorzystano dane z wizyt na oddziałach ratunkowych, gdzie występuje szeroki zakres możliwych schorzeń.

Pomimo sukcesu w tym badaniu Williams przestrzegł, że sztuczna inteligencja nie jest gotowa do odpowiedzialnego stosowania na oddziałach ratunkowych bez dalszej walidacji i badań klinicznych.

„Wspaniale jest pokazać, że sztuczna inteligencja może dokonać niesamowitych rzeczy, ale ważniejsze jest rozważenie, komu ta technologia pomaga, a komu powstrzymuje” – powiedział Williams. „Czy po prostu możliwość zrobienia czegoś jest tym samym, co korzystanie ze sztucznej inteligencji, czy też możliwość zrobienia czegoś dobrego dla wszystkich typów pacjentów?”

Jedną z ważnych kwestii do rozwiązania jest to, jak usunąć obciążenie z modelu. Poprzednie badania wykazały, że modele te mogą utrwalać uprzedzenia rasowe i płciowe w opiece zdrowotnej ze względu na błędy w danych wykorzystywanych do ich szkolenia. Williams powiedział, że zanim będzie można zastosować te modele, należy je dostosować, aby wyeliminować to stronniczość.

„Najpierw musimy wiedzieć Jeśli Działa i rozumie Jak „To działa, więc bądź ostrożny i przemyślany w stosowaniu tego” – powiedział Williams. „Przyszłe prace będą dotyczyć najlepszego sposobu wdrożenia tej technologii w warunkach klinicznych”.

READ  Molly na odchudzanie i odporność: 7 korzyści, 7 pysznych sposobów jedzenia rzodkiewek | zdrowie