ChatGPT Health: Sveikatos duomenų saugumas ir AI ribos
Daugiau nei 230 mln. žmonių kas savaitę klausia ChatGPT sveikatos klausimų. Dabar OpenAI paleidžia atskirą ChatGPT Health versiją, kurioje duomenys nebus naudojami modelio treniravimui, bet gydytojai vis tiek bijo klaidingų atsakymų. Ši nauja versija leis įkelti medicinines ataskaitas ir sinchronizuotis su Apple Health ar MyFitnessPal, tačiau gydytojai perspėja dėl „haliucinacijų“ – netikslaus ar klaidingo atsakymo rizikos.
Klaidingi skaičiai nuo tuberkuliozės iki plaučių embolijos
Chirurgas S. Bari pacientui išrašė vaistą, bet šiam atsinešė ChatGPT išrašą, kad vaistas sukelia 45 % plaučių embolijos riziką; duomenys buvo iš TB pogrindžio tyrimo. Gydytojai: „haliucinacijos“ ypač pavojingos medicinoje, nes pacientai gali atsisakyti reikalingo gydymo. Pavyzdžiui, pacientas, gavęs klaidingą informaciją apie vaistą, gali atsisakyti jo vartoti, kas gali turi negatyvių pasekmių jo sveikatai.
HIPAA spraga – duomenys iš ligoninės į Big Tech
ChatGPT Health leis įkelti medicinines ataskaitas, bet MIND įkūrėjas perspėja: duomenys tek iš HIPAA-kompetentingų institucijų pas tiekėjus, kurie HIPAA netaiko. Reguliavimo institucijų pozicija kol kas neaiški; rinka jau „išbėgusi iš maišo“. Ši problema ypač aktualu, nes daugelis sveikatos duomenų yra jautri ir privati informacija, kurią reikia saugoti.
Gydytojų pusė – ChatEHR ir Claude for Healthcare
Stanfordo ChatEHR integruojamas į ligos istoriją; gydytojai užuot naršę dešimtis langų, gauna atsakymą vienu sakiniu. Anthropic Claude for Healthcare taikomas draudikams: 20–30 min. sutaupoma kiekviename išankstinės autorizacijos prašyme. Šie produktai gali padėti gydytojams ir draudikams efektyviau valdyti sveikatos duomenis ir mažinti administracinių užduočių krūvį.
Riba tarp naudos akcininkams ir rizikos pacientui
Tech įmonės atskaitingos akcininkams, gydytojai – pacientams; gydytojai pabrėžia būtinybę išlikti konservatyviems ir saugoti žmones. Ši riba ypač svarbi, nes sveikatos duomenys yra labai jautri ir privati informacija, kurią reikia saugoti. Gydytojai ir draudikai turi būti atsargūs, naudodami AI produktus, kad būtų užtikrinta pacientų saugumas ir privatumas.
Per artimiausius metus bus svarbu stebėti, ar JAV FDA ar FTC imsis vertinti ChatGPT Health privatumo praktiką, bei sekti Stanfordo ChatEHR pilotų rezultatus – ar iš tiesų padidėja pacientų per dieną. Taip pat, bus svarbu vertinti Anthropic pristatytus laikų taupymo skaičius realiose klinikose.
Šaltiniai
- [1] [Techcrunch.com] Doctors think AI has a place in healthcare – but maybe not as a chatbot
