Dr. Vasile Astărăstoae: Inteligența artificială și medicina (II)

Citiți prima parte a articolului

Aplicațiile inteligenței artificiale (AI) au consecințe majore atât pentru umanitate în ansamblu, cât și pentru fiecare persoană, de aceea este vital să se găsească un echilibru între perspectiva dată de progresul AI și societatea umană în ansamblu. Aceasta deoarece erorile asociate cu astfel de tehnologii pot provoca probleme, dar și succesele necontrolate ar putea conduce la probleme și mai grave (1, 2).

În medicină, inteligența artificială poate fi clasificată în trei ramuri principale, și anume: virtuală, fizică și mixtă (o combinație între realitatea virtuală și roboți) (1).

Indiferent de ramură, dezvoltarea AI în medicină ridică aceeași întrebare: care sunt limitele tehnice și etice ale unei astfel de tehnologii? Există aproape un consens în lumea medicală că problema esențială a utilizării AI este cea a riscurilor etice, care afectează siguranța pacientului, autonomia persoanei (exprimată prin consimțământul informat și confidențialitate), protecția datelor personale etc.

1. Siguranța pacientului

În 2012, sistemul AI Watson (IBM), după o perioadă „de studiu” (ca student la medicină la Cleveland Clinic Lerner College of Medicine din Case Western Reserve University), a promovat examenul de autorizare a medicilor din SUA (3, 4). Imediat s-a speculat: viitorul practicii medicale „standard” ar putea fi un computer ce va înlocui omul? (5, 6). Ulterior, s-a dovedit că Watson utilizat în practica medicală (oncologie) recomandă adesea tratamente nesigure și incorecte, aceasta deoarece datele utilizate pentru antrenarea algoritmului lui Watson nu au fost de la pacienți reali, ci date (ipotetice și insuficiente) de la pacienți virtuali (7). Și alte sisteme au avut aceeași problemă. S-a constatat că, atunci când întâlnesc date din lumea reală, care diferă de cele din seturile de date de antrenament, performanța AI poate fi mai slabă, ceea ce duce la riscuri clinice crescute (8).

Riscurile și daunele apar din cauza erorilor de programare, testare, certificare a software-ului etc., toate însoțite de diverse aspecte legale și etice (9). Cercetătorii vorbesc despre utilizarea AI în medicină ca despre „o sabie cu două tăișuri” (10) sau o „cutie a Pandorei din secolul XXI” (11). Există preocupări cu privire la proprietățile unice și riscurile inerente tehnologiilor AI mai ales asupra capacităților acestora de „luare a deciziilor” (12). Când AI medicală merge prost, poate provoca vătămări grave oamenilor. De exemplu:

  • între 2000 și 2013, roboții chirurgicali din Statele Unite au fost responsabili pentru cel puțin 1.391 de incidente care au cauzat vătămări și 144 de decese (13);
  • în 2015, britanicii au folosit un robot medical pentru a efectua o intervenție chirurgicală de reparare a valvei cardiace, iar robotul nu numai că a făcut erori operaționale grave, dar a și interferat cu funcționarea corectă a medicilor umani, ducând la moartea pacientului (5);
  • în 2019, U.S. Food and Drug Administration (FDA) a descoperit că sistemul chirurgical robotizat ROSA Brain 3.0 are erori grave de software (14); și exemplele pot continua.

Ce este grav este faptul că defectele AI pot pune în pericol mai mulți pacienți decât un diagnostic greșit al unui medic, deoarece sistemele automate vor replica aceste erori la toți pacienții (15).

Cele mai frecvente cauze ale erorilor inteligenței artificiale sunt calitatea datelor introduse, prejudecățile algoritmice și opacitatea algoritmului.

a. Calitatea datelor

AI folosește diverși algoritmi pentru a găsi corelații neliniare complexe în seturi de date masive analitice (16, 17). Calitatea datelor determină în mod direct capacitatea AI de a rezolva probleme medicale. Există între informaticieni o afirmație axiomatică: „garbage in, garbage out” (gunoi introduci, gunoi iese). În medicină, datele sunt numeroase și complicate. Datele medicale provin din multiple surse și sunt eterogene: date din literatură, date din studiile clinice, date din lumea reală, date din sănătatea publică etc. (18). Cei care creează algoritmii sunt informaticieni (rar sunt medicii care tratează pacienții) și de aceea se pot înșela atunci când stabilesc pertinența și concludența datelor (19). Pentru a înlătura acest impediment major ar fi necesar ca informaticienii să cunoască foarte bine medicina, iar medicii să cunoască foarte bine informatica, ceea ce e greu de realizat. Mai mult, majoritatea bazelor de date utilizate provin de la populații selectate și, drept urmare, atunci când sunt aplicate unor grupe de pacienți subreprezentate, algoritmii pot să eșueze (20). De exemplu, dacă algoritmul este dezvoltat cu date care implică în principal occidentali, poate fi mai puțin precis în diagnosticarea asiaticilor (21). Așa cum a afirma Johnson în 2020, „sistemele AI sunt la fel de bune ca datele furnizate lor” (22).

b. Prejudecățile algoritmice

Când s-au introdus aplicațiile AI în medicină, s-a crezut că astfel s-ar putea să se reducă riscurile, să se atenueze părtinirile existente în sistemul de sănătate (cum ar fi, de exemplu, părtinirile cognitive ale medicilor), conducând astfel la rezultate mai sigure și echitabile (23, 24). Nu a durat mult și s-a constatat că algoritmii pot duce și la rezultate părtinitoare, care pot avea efecte de anvergură asupra rezultatelor (25).

Prejudecățile algoritmice sunt definite ca defecte ale algoritmului și includ atât părtinirea indusă de om, cât și părtinirea indusă de date.

Prejudecățile induse de om sunt determinate de scrierea, în mod intenționat sau neintenționat, a unui algoritm, care reflectă percepțiile morale și interesele relevante ale autorilor (26, 27).

Prejudecățile induse de date se referă la părtinirea algoritmului atunci când datele de antrenament nu sunt reprezentative sau sunt insuficiente, ceea ce afectează modelul algoritmului. Ele nu numai că moștenesc părtinirile umane, dar este posibil ca acestea să fie întărite și amplificate (28, 29). În numeroase situații, datele de instruire pentru AI din domeniul medical provin din unități medicale de nivel înalt, ceea ce duce la părtinire frecventă atunci când este utilizată în unități medicale de nivel inferior (30).

Majoritatea algoritmilor exploatează corelațiile brute în date. Aceste corelații sunt adesea produse secundare ale relațiilor sociale importante. Prejudecățile algoritmice provin, uneori, și din datele purtătoare de încărcătură socială și rasială ce pot conduce la inechități și discriminare (30, 31, 32, 33, 34, 35).

c. Opacitatea algoritmului

Opacitatea constă în necunoașterea sau neînțelegerea modului în care algoritmul funcționează. Există mai multe explicații privind acest fenomen. Unul ține de secretul comercial și de brevetare. Dezvoltarea AI este dominată de marile companii private, iar algoritmii sunt secrete comerciale pe care companiile le ascund în mod intenționat. Deși companiile AI susțin că produsele și serviciile lor sunt sigure și etice, ele nu au convins (36) și companiile sunt în continuare criticate pentru că nu s-au angajat în dezbateri semnificative despre produsele și cercetările lor (37, 38). Apoi, incapacitatea personalului medical și a publicului de a înțelege programarea și tehnicile algoritmice, deoarece mulți algoritmi se bazează pe o matematică foarte complicată inaccesibilă acestora (38). În sfârșit, fenomenul de „cutie neagra algoritmică”, ceea ce înseamnă că intrările și ieșirile sunt vizibile și ușor de înțeles, dar procesul de la intrare până la ieșire nu poate fi explicat sau înțeles. Cu alte cuvinte, motivele din spatele rezultatelor unui algoritm nu sunt înțelese și nu pot fi interpretate nici măcar de creatorii lui (38, 39).

2. Consimțământul informat

Potrivit legislației internaționale transpusă în legislații naționale, pacientul are dreptul de a obține informații și de a pune întrebări înainte de orice procedură și orice tratament. Pacienții pot refuza investigațiile și tratamentul în orice moment. De aceea, pacienții ar fi necesar să fie informați despre riscurile ce decurg din utilizarea AI, despre erorile de programare, despre protecția datelor personale, despre cine este responsabil atunci când aceste dispozitive medicale robotizate cu AI eșuează etc. Dar așa cum s-a menționat deseori, nici medicii nu au acces la toate informațiile privind AI și la fel de des chiar dacă le au, nu le înțeleg. Atunci cum le pot pune la dispoziția pacientului? De regulă, pacienții acceptă sistemul AI fără a pune la îndoială performanța acestuia, ceea ce conduce la un consimțământ formal și viciat. Cum reacționează autoritățile medicale pentru a acoperi această lacună? Se încearcă tot felul de soluții, deocamdată fără rezultate. Rămân actuale întrebările cu privire la modul în care structurile de răspundere din medicină vor gestiona eficient problemele legate de tehnologiile AI implementate (40).

3. Confidențialitatea și protecția datelor

AI ridică preocupări legate de confidențialitatea pacienților și utilizarea datelor acestora. Acestea sunt legitime, deoarece datele pacienților au o valoare ridicată pentru cercetare și afaceri, și de aceea încălcarea regimului protecției datelor are loc frecvent. În 2017, peste 15% din încălcările globale ale datelor au venit din industria sănătății (pe locul doi – după sectorul financiar) (41), au ajuns la un nivel record în 2021 – afectând peste 45 de milioane de oameni (42), iar conform Raportului Critical Insights, 97% dintre persoanele afectate de o încălcare a securității cibernetice în prima jumătate a anului 2022 au fost rezultatul unor acțiuni de hacking și IT (43).

Cantitățile enorme de date cu caracter personal colectate din diverse surse și inserate în algoritmi AI în scopuri medicale, pot produce atingeri ale confidențialității pacientului (44). Datele colectate pot fi piratate sau utilizate (ilegal) în alte scopuri, cu reducerea la minimum a confidențialității, aceasta deoarece ele pot fi de mare ajutor în marketing, publicitate și vânzările companiilor farmaceutice și de biotehnologie (45, 46). Vulnerabilitățile securității cibernetice ale AI pot fi o amenințare gravă pentru confidențialitatea pacientului, deoarece sunt, de obicei, ascunse și descoperite numai după ce daunele au fost cauzate și s-au produs rezultatele funeste (47, 48). În plus, multe tehnologii AI ajung să fie deținute și controlate de entități private, ceea ce însemna că astfel de corporații joacă un rol mai mare decât cel obișnuit în obținerea, utilizarea și protejarea informațiilor despre sănătatea pacientului. Acest aspect ridică noi probleme de confidențialitate legate de implementare și securitatea datelor (49). În literatură, o atenție semnificativă este acordată dezvoltării tehnicilor de păstrarea confidențialității și depășirii problemelor care împiedică adoptarea AI într-un mediu clinic real (50). Odată cu instrumentele tehnice necesare pentru a îmbina colecții mari de date și pentru a distribui interogări pe baze de date disparate, cercetătorii va fi necesar să utilizeze metode de anonimizare și dezidentificare a datelor (51). Această capacitate de a dezidentifica sau anonimiza datele poate fi compromisă sau chiar anulată de noii algoritmi, care au reidentificat cu succes astfel de date (50).

Puține dezbateri s-au concentrat asupra unui risc important al tehnologiilor AI și anume: cel al dezumanizării actului medical. Empatia, simpatia, compasiunea sunt emoții unice umane inaccesibile inteligenței artificiale (AI). Pacienții vor pierde astfel empatia, bunătatea și comportamentul adecvat atunci când au de-a face cu „medici și asistente roboți”. Mai mult, dacă medicii și ceilalți furnizori de îngrijire medicală pot să solicite consultanță sau să ofere consultanță colegilor lor, acest aspect nu este posibil în sistemele autonome (robotice) AI și pacientul este privat de un drept – dreptul la a doua opinie. Acestea sunt cele mai semnificative aspecte nefaste ale inteligenței artificiale în știința medicală (52, 53).

În sfârșit, se poate afirma că deși în prezent rezultatele arată că AI poate depăși oamenii în multe aspecte, ea nu posedă în esență liberul arbitru, nu are subiectivitate morală, nu poate evalua independent și sintetic problemele medicale, nu poate conceptualiza, îi lipsește nivelul de cunoaștere necesar gândirii critice, nu poate fi un subiect responsabil (54, 55, 56, 57). Mai mult, studiile care raportează aplicarea AI în practica clinică sunt limitate atât din cauza designurilor retrospective și a dimensiunilor eșantionului, cât și a selecției și prejudecăților de spectru; se potrivesc optim cu un anumit set de date (prin supraajustare), dar nu obțin aceleași rezultate cu alte date similare (57, 58). De aceea medicii, atunci când consideră că un sistem de diagnostic și tratament medical AI este în cea mai mare parte precis și acceptă rezultatele sistemului (fără a-i pune la îndoială limitele), se plafonează (nereușind să-și mențină abilitățile) și participă la dezumanizarea profesiei (59).

În concluzie, noile metode AI nu sunt un panaceu; pot greși, pot funcționa doar într-un domeniu îngust, pot avea prejudecăți, pot discrimina, pot afecta în mod disproporționat grupurile marginalizate. Adoptarea precipitată a sistemelor AI, netestate suficient, ar putea duce la erori, ar putea cauza prejudicii pacienților, ar putea eroda încrederea în medicină. Tehnologiile AI nu vor putea înlocui personalul medical uman, dar sub control uman pot fi instrumente eficiente în medicină.

Autor: Dr. Vasile Astărăstoae

Bibliografie

1. Jian Guan, Artificial Intelligence in Healthcare and Medicine: Promises, Ethical Challenges and Governance, Chin Med Sci J June 2019 Vol. 34, No. 2 P. 76-83 doi:10.24920/003611
2. Cath C. Governing artificial intelligence: ethical, legal and technical opportunities and challenges. Philos Trans A Math Phys Eng Sci. 2018; 376(2133):20180080; doi: 10.1098/rsta.2018.0080
3. Lohr, Steve, I.B.M.’s Watson Goes to Medical School, The New York Times, October 30, 2012, archive.nytimes.com/bits.blogs.nytimes.com/2012/10/30/i-b-m-s-watson-goes-to-medical-school/
4. Nusca, Andrew, After a year of medical school, IBM’s Watson passes first milestone, ZDnet, Feb. 8, 2013, zdnet.com/article/after-a-year-of-medical-school-ibms-watson-passes-first-milestone/
5. Zhang, J., Zhang, Zm. Ethics and governance of trustworthy medical artificial intelligence. BMC Med Inform Decis Mak 23, 7 (2023). doi: 10.1186/s12911-023-02103-9
6. Miller A. The future of health care could be elementary with Watson. CMAJ. 2013 Jun 11;185(9):E367-8. doi: 10.1503/cmaj.109-4442. Epub 2013 Apr 15. PMID: 23589429; PMCID: PMC3680569.
7. Ross, C., Swetlitz, I., IBM’s Watson supercomputer recommended ‘unsafe and incorrect’ cancer treatments, internal documents show. STAT News, July 25, 2018 statnews.com/2018/07/25/ibm-watson-recommended-unsafe-incorrect-treatments/
8. Kelly CJ, Karthikesalingam A, Suleyman M, et al. Key challenges for delivering clinical impact with artificial intelligence. BMC Med. 2019; 17 (1): 195 doi: 10.1186/s12916-019-1426-2
9. O’Sullivan S, Nevejans N, Allen C, et al. Legal, regulatory, and ethical frameworks for develop-ment of standards in artificial intelligence (AI) and autonomous robotic surgery. Int J Med Robot. 2019; 15(1):e1968. doi: 10.1002/rcs.1968
10. Haug CJ, Drazen JM. Artificial Intelligence and Machine Learning in Clinical Medicine, 2023. N Engl J Med. 2023 Mar 30; 388(13):1201-1208. doi: 10.1056/NEJMra2302038. PMID: 36988595
11. Cooper A, Rodman A. AI and Medical Education – A 21st-Century Pandora’s Box. N Engl J Med. 2023 Aug 3; 389(5):385-387. doi: 10.1056/NEJMp2304993. Epub 2023 Jul 29. PMID: 37522417
12. Daniel Schönberger, Artificial intelligence in healthcare: a critical analysis of the legal and ethical implications, International Journal of Law and Information Technology, Volume 27, Issue 2, Summer 2019, Pages 171–203, doi: 10.1093/ijlit/eaz004
13. Alemzadeh H, Raman J, Leveson N, et al. Adverse events in robotic surgery: a retrospective study of 14 years of FDA data. PLoS ONE. 2016; 11(4): e0151470. doi: 10.1371/journal.pone.0151470
14. U.S. Food and Drug Administration. Zimmer Biomet Recalls ROSA One 3.1 Brain Application Due to Error in Software. 2021. fda.gov/medical-devices/medical-device-recalls/zimmer-biomet-recalls-rosa-one-31-brain-application-due-error-software
15. Macnish K. Unblinking eyes: the ethics of automating surveillance. Eth Inf Technol. 2012;14:151–67. doi: 10.1007/s10676-012-9291-0
16. Rong G, Mendez A, Bou Assi E, Zhao B, Sawan M. Artificial intelligence in healthcare: review and prediction case studies. Engineering. (2020) 6:291–301. doi: 10.1016/j.eng.2019.08.015
17. Miller DD, Brown EW. Artificial Intelligence in medical practice: the question to the answer? Am J Med. (2018) 131:129–33. doi: 10.1016/j.amjmed.2017.10.035
18. Gerke S, Minssen T, Yu H, et al. Ethical and legal issues of ingestible electronic sensors. Nat Electron. 2019;2(8):329–34. doi: 10.1038/s41928-019-0290-6
19. Greenfield, Daniel, Artificial Intelligence in Medicine: Applications, implications, and limitations, SINT Blog, June 19,2019, sitn.hms.harvard.edu/flash/2019/artificial-intelligence-in-medicine-applications-implications-and-limitations/
20. Safdar NM, Banja JD, Meltzer CC. Ethical considerations in Artificial Intelligence. Eur J Radiol. (2020) 122:108768. doi: 10.1016/j.ejrad.2019.108768
21. Frost, E.K., Bosward, R., Aquino, Y.S.J. et al. Public views on ethical issues in healthcare artificial intelligence: protocol for a scoping review. Syst Rev 11, 142 (2022). doi: 10.1186/s13643-022-02012-4
22. Johnson SLJ. AI, machine learning, and ethics in health care. J Leg Med. 2020; 39:427–41. doi: 10.1080/01947648.2019.1690604
23. Markowetz A, Błaszkiewicz K, Montag C, et al. Psycho-informatics: big data shaping modern psychometrics. Med Hypotheses. 2014; 82(4):405–11. doi: 10.1016/j.mehy.2013.11.030.
24. Char DS, Shah NH, Magnus D. Implementing machine learning in health care-addressing ethical challenges. N Engl J Med. 2018; 378(11):981–3. doi: 10.1056/NEJMp1714229
25. Sharon T. Self-Tracking for health and the quantified self: re-articulating autonomy, solidarity, and authenticity in an age of personalized healthcare. Philos Technol. 2017; 30:93–121. doi: 10.1007/s13347-016-0215-5
26. Monteith S, Glenn T. Automated decision-making and big data: concerns for people withmentalillness. Curr Psychiatry Rep, 2016; 18(12): 112 . doi:10.1007/s11920-016-0746-6.
27. Howard A, Borenstein J. The ugly truth about ourselves and our robot creations: the problem of bias and social inequity. Sci Eng Eth. 2018; 24(5):1521–36. doi: 10.1007/s11948-017-9975-2
28. Mooney SJ, Pejaver V. Big data in public health: terminology, machine learning, and privacy. Ann Rev Public Health.2018;39(1)95-112 doi: 10.1146/annurev-publhealth-040617-014208.
29. Senders JT, Zaki MM, Karhade AV, et al. An introduction and overview of machine learning in neurosurgical care. Acta Neurochir (Wien). 2018;160(1):29–38. doi: 10.1007/s00701-017-3385-8.
30. Price W, Nicholson II. Medical AI and contextual bias. Harv J Law Technol. 2019;33:65–116. repository.law.umich.edu/cgi/viewcontent.cgi?article=3242&context=articles
31.Obermeyer Z, Powers B, Vogeli C, Mullainathan S. Dissecting racial bias in an algorithm used to manage the health of populations. Science. 2019 Oct 25;366(6464):447-453. doi: 10.1126/science.aax2342. PMID: 31649194.
32. Howard A, Borenstein J. The ugly truth about ourselves and our robot creations: the problem of bias and social inequity. Sci Eng Eth. 2018;24(5):1521–36. doi: 10.1007/s11948-017-9975-2
33. Nordling L. A fairer way forward for AI in health care. Nature. 2019 Sep; 573(7775):S103-S105. doi: 10.1038/d41586-019-02872-2. PMID: 31554993. nature.com/articles/d41586-019-02872-2
34. Kusner MJ, Loftus JR. The long road to fairer algorithms. Nature. 2020 Feb; 578(7793):34–6. doi: 10.1038/d41586-020-00274-3 PMid:32020122
35. Dankwa-Mullan, I., Scheufele, E.L., Matheny, M.E., Quintana, Y., Chapman, W.W., Jackson, G., South, B.R. (2021). A Proposed Framework on Integrating Health Equity and Racial Justice into the Artificial Intelligence Development Lifecycle. Journal of Health Care for the Poor and Underserved 32(2), 300-317. doi:10.1353/hpu.2021.0065.
36. Floridi, L. Translating principles into practices of digital ethics: five risks of being unethical. Philos Technol. 2019;32(2):185–93. doi: 10.1007/s13347-019-00354-x.
37. Holzmeyer C., Beyond ‘AI for Social Good’ (AI4SG): social transformations—not tech-fixes—for health equity. Interdisc Sci Rev. 2021;46(1–2):94–125. researchgate.net/publication/349884827_Beyond_’AI_for_Social_Good’_AI4SG_social_transformations-not_tech-fixes-for_health_equity
38. Burrell J. How the machine „thinks”: understanding opacity in machine learning algorithms. Big Data Soc. 2016. doi: 10.1177/2053951715622512
39. Dilsizian ME, Siegel EL. Machine Meets Biology: a Primer on Artificial Intelligence in Cardiology and Cardiac Imaging. Curr Cardiol Rep. 2018 Oct 18;20(12):139. doi: 10.1007/s11886-018-1074-8. PMID: 30334108.
40. Grote T, Berens P. On the ethics of algorithmic decision-making in healthcare. J Med Ethics. 2020; 46(3):205–11. jme.bmj.com/content/46/3/205
41. The Economist. The World’s Most Valuable Resource is No Longer Oil, But Data. 2021. economist.com/leaders/2017/05/06/the-worlds-most-valuable-resource-is-no-longer-oil-but-data
42. Armstrong, M., The Ethical Implications of AI and Data in Healthcare, Health IT Answer, September 15,2023, healthitanswers.net/the-ethical-implications-of-ai-and-data-in-healthcare/
43. Critical Insight, 2022 Healthcare Data Breach Report, cybersecurity.criticalinsight.com/healthcare-breach-report-h1-2022
44. Wang C, Zhang J, Lassi N, Zhang X. Privacy Protection in Using Artificial Intelligence for Healthcare: Chinese Regulation in Comparative Perspective. Healthcare (Basel). 2022 Sep 27;10(10):1878. doi: 10.3390/healthcare10101878. PMID: 36292325; PMCID: PMC9601726.
45. Farhud DD, Zokaei S. Ethical Issues of Artificial Intelligence in Medicine and Healthcare. Iran J Public Health. 2021 Nov;50(11): i-v. doi: 10.18502/ijph.v50i11.7600. PMID: 35223619; PMCID: PMC8826344.
46. Amisha, Malik P, Pathania M, Rathaur VK. Overview of artificial intelligence in medicine. J Family Med Prim Care. 2019 Jul;8(7):2328-2331. doi: 10.4103/jfmpc.jfmpc_440_19. PMID: 31463251; PMCID: PMC6691444
47. Rodrigues R. Legal and human rights issues of AI: gaps, challenges and vulnerabilities. J Respons Technol. (2020) 4:100005. doi: 10.1016/j.jrt.2020.100005
48. Challen R, Denny J, Pitt M, et al. Artificial intelligence, bias and clinical safety. BMJ Qual Saf. 2019; 28(3):231–7. doi: 10.1136/bmjqs-2018-008370
49. Murdoch, B. Privacy and artificial intelligence: challenges for protecting health information in a new era. BMC Med Ethics 22, 122 (2021). doi: 10.1186/s12910-021-00687-3
50. Khalid N, Qayyum A, Bilal M, Al-Fuqaha A, Qadir J. Privacy-preserving artificial intelligence in healthcare: Techniques and applications. Comput Biol Med. 2023; 158:106848. doi: 10.1016/j.compbiomed.2023.106848
51. Berman, J., Confidentiality issues for medical data miners, Artificial Intelligence in Medicine, Volume 26, Issues 1–2, September-October 2002, Pages 25-36 sciencedirect.com/science/article/abs/pii/S0933365702000507?via%3Dihub
52. Chaiyachati KH, Shea JA, Asch DA, Liu M, Bellini LM, Dine CJ, et al. Assessment of inpatient time allocation among first-year internal medicine residents using time-motion observations. JAMA Int Med. (2019) 179:760–7. doi: 10.1001/jamainternmed.2019.0095
53. Briganti, G., Le Moine, O., (2020) Artificial Intelligence in Medicine: Today and Tomorrow. Front. Med. 7:27. doi: 10.3389/fmed. 2020.00027
54. Goldfarb, Lindsay, Can AI Replace Your Doctor?, Dimensional Insight, May 15, 2023, dimins.com/blog/2023/05/15/can-ai-replace-doctor/
55. Sparrow R. Killer robots. J Appl Philos. 2007;24(1):62–77. doi:10.1111/j.1468-5930.2007.00346.x
56. Coeckelbergh M. Artificial intelligence, responsibility attribution, and a relational justification of explainability. Sci Eng Eth. 2020;26(4):2051–68 doi:10.1007/s11948-019-00146-8
57. Chung, Jason and Zink, Amanda, Hey Watson, Can I Sue You for Malpractice? Examining the Liability of Artificial Intelligence in Medicine (November 23, 2017). Forthcoming, Asia-Pacific Journal of Health Law, Policy and Ethics, Available at SSRN: papers.ssrn.com/sol3/papers.cfm?abstract_id=3076576
58. Humanitas University, 5 reasons why Artificial Intelligence won’t replace physicians, 08/02/2022, hunimed.eu/news/5-motivi-per-cui-lintelligenza-artificiale-non-potra-sostituire-la-figura-del-medico/
59. Mannes A. Governance, risk, and Artificial Intelligence. AI Magazine. (2020) 41:61–9. doi: 10.1609/aimag.v41i1.5200

Citiți și:
Noua normalitate și predicțiile pentru anul 2025
După avocații-roboți, acum și medicii vor fi înlocuiți de inteligența artificială. Marea Britanie a alocat un milion de lire sterline pentru acest proiect

 

yogaesoteric
26 octombrie 2023

 

Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More