SzukajSzukaj
dołącz do nasFacebookGoogleLinkedinTwitter

ChatGPT w medycynie: ponad połowa diagnoz błędna

Silnik sztucznej inteligencji ChatGPT nie może być użyty jako narzędzie diagnostyczne w medycynie, bo w ponad połowie przypadków się myli – podsumowali kanadyjscy naukowcy z Uniwersytetu Zachodniego Ontario po przetestowaniu modelu na przypadkach pacjentów. ChatGPT umie jednak pisać czytelne odpowiedzi.

Dołącz do dyskusji: ChatGPT w medycynie: ponad połowa diagnoz błędna

10 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiekz postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
Al
AI mimo całego tego hype-a nie jest bezbłędny (nawet na proste pytania AI potrafi "halucynować"). To wciąż dopiero początki (aczkolwiek bardzo obiecujące) i należy traktować tą technologię jako narzędzie wspomagające, ale nie całkowicie wyręczające.
odpowiedź
User
MK
Na litość Boską... Jak mozna oczekiwać od programu do generowania tekstu poprawnej diagnozy medycznej? ChatGPT zgaduje jakie slowa powinny pojawić się w odpowiedzi na zasadzie prawdopodobieństwa. On nie rozumie tych słów!
odpowiedź
User
MK
Na litość Boską... Jak mozna oczekiwać od programu do generowania tekstu poprawnej diagnozy medycznej? ChatGPT zgaduje jakie slowa powinny pojawić się w odpowiedzi na zasadzie prawdopodobieństwa. On nie rozumie tych słów!
odpowiedź