• ni

Fido, Hom-Centra Artefarita Inteligenteco kaj Kunlaboro estas la fokuso de la Unua Leviĝo pri Sano-Simpozio-Novaĵcentro |

AI -spertuloj diskutas kiel integri fortikan AI en sanservon, kial interdisciplina kunlaboro estas kritika, kaj la potencialo de generativa AI en esplorado.
Feifei Li kaj Lloyd Minor donis malfermajn rimarkojn ĉe la inaŭgura Leviĝo pri Sano -Simpozio ĉe Stanforda Universitato -Lernejo de Medicino la 14an de majo. Steve Fish
Plej multaj homoj kaptitaj de artefarita inteligenteco havis ian "aha" momenton, malfermante sian menson al mondo de eblecoj. Ĉe la inaŭgura Sana Simpozio la 14 -an de majo, Lloyd Minor, MD, dekano de Stanforda Universitato -Lernejo de Medicino kaj vicprezidanto por medicinaj aferoj en Universitato Stanford, dividis sian perspektivon.
Kiam oni petis unu kuriozan adoleskanton resumi siajn trovojn pri la interna orelo, li turnis sin al genera artefarita inteligenteco. "Mi demandis," Kio estas Supera Kanala Dehiscence -Sindromo? " Minor diris al preskaŭ 4.000 simpoziaj partoprenantoj. En sekundoj, aperis pluraj alineoj.
"Ili estas bonaj, vere bonaj," li diris. "Ĉi tiu informo estis kompilita en koncizan, ĝenerale precizan kaj klare prioritatan priskribon de la malsano. Ĉi tio estas sufiĉe rimarkinda. "
Multaj partumis la ekscitiĝon de Minor por la duontaga evento, kiu estis elfluo de The Raise Health Initiative, projekto lanĉita de Stanford University School of Medicine kaj la Stanforda Instituto por Hom-Centrita Artefarita Inteligenteco (HAI) por gvidi la respondecan uzon de artefarita inteligenteco. Inteligenteco en biomedicina esplorado, edukado kaj pacienca prizorgado. La parolantoj ekzamenis kion ĝi signifas efektivigi artefaritan inteligentecon en medicino en maniero ne nur utila por kuracistoj kaj sciencistoj, sed ankaŭ travidebla, justa kaj egala por pacientoj.
"Ni kredas, ke ĉi tio estas teknologio, kiu plibonigas homajn kapablojn," diris Fei-Fei Li, profesoro pri komputiko ĉe la Stanforda Lernejo de Inĝenierio, direktoro de la Sano Raise kun negrava projekto kaj kundirektoro de HAI. Generacio post generacio, novaj teknologioj povas aperi: de novaj molekulaj sekvencoj de antibiotikoj ĝis mapado de biodiverseco kaj malkaŝado de kaŝitaj partoj de fundamenta biologio, AI akcelas sciencan malkovron. Sed ne ĉio ĉi estas utila. "Ĉiuj ĉi tiuj aplikoj povas havi neintencitajn konsekvencojn, kaj ni bezonas komputilajn sciencistojn, kiuj disvolvas kaj efektivigas [artefaritan inteligentecon] respondece, laborante kun diversaj koncernatoj, de kuracistoj kaj etikistoj ... ĝis sekurecaj spertuloj kaj pli tie," diras ŝi. "Iniciatoj kiel Levi Sano montras nian devontigon pri ĉi tio."
La firmiĝo de tri dividoj de Stanforda Medicino - la Lernejo de Medicino, Stanforda Sanservo kaj la Stanforda Universitato -Lernejo de Infana San -Medicino - kaj ĝiaj ligoj al aliaj partoj de Universitato Stanford metis ĝin en pozicion, kie spertuloj traktas la disvolviĝon de Artefarita Inteligenteco. problemoj pri administrado kaj integriĝo en la kampo de sanservo kaj medicino. Medicino, la kanto iris.
"Ni estas bone poziciigitaj por esti pioniro en la disvolviĝo kaj respondeca efektivigo de artefarita inteligenteco, de fundamentaj biologiaj malkovroj ĝis plibonigado de drog -disvolviĝo kaj plifaciligi procezojn de klinikaj provoj, ĝuste ĝis la efektiva liverado de sanservoj. Kuracado. La maniero kiel la sansistemo estas starigita, "li diris.
Pluraj parolantoj emfazis simplan koncepton: fokusiĝu al la uzanto (ĉi -kaze la paciento aŭ kuracisto) kaj ĉio alia sekvos. "Ĝi metas la pacienton en la centron de ĉio, kion ni faras," diris doktoro Lisa Lehmann, direktoro de bioetiko en Brigham kaj Virina Hospitalo. "Ni devas konsideri iliajn bezonojn kaj prioritatojn."
De maldekstre dekstren: Stat News ankro Mohana Ravindranath; Jessica Peter Lee de Microsoft Research; Sylvia Plevritis, profesoro pri biomedicina datumoscienco, diskutas la rolon de artefarita inteligenteco en medicina esplorado. Steve Fish
Parolantoj sur la panelo, kiuj inkluzivis Lehmann, medicinan bioetikiston Mildred Cho, MD, MD, kaj Google Chief Clinric -oficiron Michael Howell, MD, rimarkis la kompleksecon de hospitalaj sistemoj, emfazante la bezonon kompreni ilian celon antaŭ iu ajn interveno. Efektivigu ĝin kaj certigu, ke ĉiuj sistemoj disvolvitaj estas inkluzivaj kaj aŭskultu la homojn, kiujn ili estas desegnitaj por helpi.
Unu ŝlosilo estas travidebleco: ĝi klarigas, de kie venas la datumoj uzataj por trejni la algoritmon, el kio estas la originala celo de la algoritmo, kaj ĉu estontaj pacientaj datumoj daŭre helpos la algoritmon lerni, inter aliaj faktoroj.
"Provante antaŭdiri etikajn problemojn antaŭ ol ili seriozas [signifas] trovi la perfektan dolĉan lokon, kie vi scias sufiĉe pri la teknologio por havi iom da konfido pri ĝi, sed ne antaŭ ol [la problemo] disvastiĝas plu kaj solvas ĝin pli frue." , Denton Char diris. Kandidato de Medicinaj Sciencoj, Asociita Profesoro pri la Sekcio de Pediatria Anestesiologio, Perioperacia Medicino kaj Dolora Medicino. Unu ŝlosila paŝo, li diras, estas identigi ĉiujn koncernatojn, kiuj povus esti trafitaj de la teknologio kaj determini kiel ili mem ŝatus respondi tiujn demandojn.
Jesse Ehrenfeld, MD, prezidanto de la Usona Medicina Asocio, diskutas kvar faktorojn, kiuj pelas adopton de iu ajn cifereca sano -ilo, inkluzive de tiuj funkciigitaj de artefarita inteligenteco. Ĉu ĝi efikas? Ĉu ĉi tio funkcios en mia institucio? Kiu pagas? Kiu respondecas?
Michael Pfeffer, MD, ĉefa informa oficiro de Stanford Health Care, citis lastatempan ekzemplon, en kiu multaj el la aferoj estis testitaj inter flegistinoj en Stanfordaj Hospitaloj. Klinikistoj estas subtenataj de grandaj lingvaj modeloj, kiuj provizas komencajn komentariojn por envenantaj pacientaj mesaĝoj. Kvankam la projekto ne estas perfekta, kuracistoj, kiuj helpis disvolvi la teknologian raporton, ke la modelo faciligas sian laborŝarĝon.
"Ni ĉiam fokusas pri tri gravaj aferoj: sekureco, efikeco kaj inkludo. Ni estas kuracistoj. Ni faras ĵuron por "ne damaĝi", diris Nina Vasan, MD, klinika asistanto profesoro pri psikiatrio kaj kondutaj sciencoj, kiuj aliĝis al Char kaj Pfeffer aliĝis al la grupo. "Ĉi tio devas esti la unua maniero taksi ĉi tiujn ilojn."
Nigam Shah, MBBS, doktoro, profesoro pri medicino kaj biomedicina datumoscienco, komencis la diskuton kun ŝoka statistiko malgraŭ justa averto al la spektantaro. "Mi parolas ĝenerale, kaj kelkfoje ili emas esti tre rektaj," li diris.
Laŭ Ŝaho, la sukceso de AI dependas de nia kapablo skali ĝin. "Fari taŭgan sciencan esploradon pri modelo daŭras ĉirkaŭ 10 jarojn, kaj se ĉiu el la 123 programoj de kunularo kaj loĝado volus testi kaj disfaldi la modelon ĝis tiu nivelo de rigoro, estus tre malfacile fari la ĝustan sciencon, ĉar ni nuntempe organizas Niaj klopodoj kaj [testo]] kostus $ 138 miliardojn por certigi, ke ĉiu el niaj retejoj funkcias ĝuste, "Shah diris. “Ni ne povas pagi ĉi tion. Do ni bezonas trovi manieron ekspansiiĝi, kaj ni devas ekspansiiĝi ​​kaj fari bonan sciencon. La rigorecaj kapabloj estas en unu loko kaj la skalaj kapabloj estas en alia, do ni bezonos tiun tipon de partnereco. "
Asociita Dekano Yuan Ashley kaj Mildred Cho (Ricevo) ĉeestis la Laborejon pri Raise Health. Steve Fish
Iuj parolantoj ĉe la simpozio diris, ke ĉi tio povus esti atingita per publikaj-privataj partnerecoj, kiel la lastatempa plenuma ordono de la Blanka Domo pri sekura, sekura kaj fidinda disvolviĝo kaj uzo de artefarita inteligenteco kaj la konsorcio por sanserva artefarita inteligenteco (Chai). ).
"La publika-privata partnereco kun la plej granda potencialo estas unu inter akademioj, la privata sektoro kaj la publika sektoro," diris Laura Adams, altranga konsilisto de la Nacia Akademio de Medicino. Ŝi rimarkis, ke la registaro povas certigi publikan fidon, kaj akademiaj medicinaj centroj povas. Provizi legitimecon, kaj teknika kompetenteco kaj komputila tempo povas esti provizitaj de la privata sektoro. "Ni ĉiuj estas pli bonaj ol iu el ni, kaj ni rekonas tion ... ni ne povas preĝi por realigi la potencialon de [artefarita inteligenteco] krom se ni komprenas kiel interagi unu kun la alia."
Pluraj parolantoj diris, ke AI ankaŭ efikas sur esplorado, ĉu sciencistoj uzas ĝin por esplori biologian dogmon, antaŭdiri novajn sekvencojn kaj strukturojn de sintezaj molekuloj por subteni novajn traktadojn, aŭ eĉ helpi ilin resumi aŭ verki sciencajn artikolojn.
"Ĉi tio estas okazo por vidi la nekonaton," diris Jessica Mega, MD, kardiologo de Stanford University School of Medicine kaj kunfondinto de Alphabet. Mega menciis hiperspektran bildadon, kiu kaptas bildojn nevideblajn al la homa okulo. La ideo estas uzi artefaritan inteligentecon por detekti ŝablonojn en patologiaj glitoj, kiujn homoj ne vidas, kiuj indikas malsanon. "Mi kuraĝigas homojn ĉirkaŭpreni la nekonaton. Mi pensas, ke ĉiuj ĉi tie konas iun kun ia medicina kondiĉo, kiu bezonas ion preter tio, kion ni povas provizi hodiaŭ, "Mejia diris.
La panelistoj ankaŭ konsentis, ke artefaritaj inteligentecaj sistemoj provizos novajn manierojn identigi kaj batali pri biasa decido, ĉu faritaj de homoj aŭ artefarita inteligenteco, kun la kapablo identigi la fonton de la fleksio.
"Sano estas pli ol nura medicina prizorgo," pluraj panelistoj konsentis. Parolantoj emfazis, ke esploristoj ofte preterlasas sociajn determinantojn pri sano, kiel sociekonomia statuso, poŝtkodo, eduknivelo kaj raso kaj etneco, dum kolektado de inkluzivaj datumoj kaj varbado de partoprenantoj por studoj. "AI estas nur tiel efika kiel la datumoj pri kiuj la modelo estas trejnita," diris Michelle Williams, profesoro pri epidemiologio en Harvard University kaj asociita profesoro pri epidemiologio kaj loĝantara sano ĉe Stanford University School of Medicine. “Se ni faras tion, kion ni strebas fari. Plibonigi sanajn rezultojn kaj forigi malegalecojn, ni devas certigi, ke ni kolektu altkvalitajn datumojn pri homa konduto kaj la socia kaj natura medio. "
Natalie Pageler, MD, Klinika Profesoro pri Pediatrio kaj Medicino, diris, ke agregataj kancero -datumoj ofte ekskludas datumojn pri gravedaj virinoj, kreante neeviteblajn biasojn en modeloj kaj pligravigante ekzistantajn malegalecojn en sanzorgado.
D -ro David Magnus, profesoro pri pediatrio kaj medicino, diris, ke kiel iu nova teknologio, artefarita inteligenteco povas aŭ plibonigi la aferojn laŭ multaj manieroj aŭ plimalbonigi ilin. La risko, Magnus diris, estas, ke artefaritaj inteligentecaj sistemoj lernos pri neeviteblaj sanaj rezultoj pelitaj de sociaj determinantoj de sano kaj plifortigos tiujn rezultojn per sia eligo. "Artefarita inteligenteco estas spegulo, kiu reflektas la socion en kiu ni loĝas," li diris. "Mi esperas, ke ĉiufoje ni havas la ŝancon lumigi problemon - teni spegulon al ni mem - ĝi servos kiel instigo por plibonigi la situacion."
Se vi ne povis ĉeesti la Atelieron pri Raise Health, registrado de la kunsido troveblas ĉi tie.
Stanforda Universitato -Lernejo de Medicino estas integra akademia sanzorga sistemo konsistanta el la Stanforda Universitato -Lernejo de Medicino kaj la plenkreskaj kaj pediatriaj sanaj liveraj sistemoj. Kune ili rimarkas la plenan potencialon de biomedicino per kunlabora esplorado, edukado kaj klinika pacienca prizorgado. Por pliaj informoj, vizitu Med.stanford.edu.
Nova artefarita inteligenta modelo helpas kuracistojn kaj flegistojn en Stanforda Hospitalo kunlabori por plibonigi paciencan prizorgadon.


Afiŝotempo: jul-19-2024