KasallikKasalliklar haqida sodda tilda gaplashamiz

“Aql-idrok illyuziyasi”: Katta tilni modellashtirishga axloqiy yondashuvni topish

Jon Halamka, MD, Mayo Clinic Platformasi prezidenti Ishbilarmonlik bilan gaplashish qiyin bo’lishi mumkin. Masalan, sinovdan o‘tkazish “kompaniya xodimlari tomonidan yangi ishlab chiqilgan mahsulot yoki xizmatdan mijozlarga taqdim etilishidan oldin uni sinab ko‘rish uchun foydalanish”ni nazarda tutadi. O’z navbatida, Trendjacking – bu biznes trend mavzular, xeshteglar, voqealar va memlarga o’tishda nima qiladi. AI dunyosining o’ziga xos […]

0
1
“Aql-idrok illyuziyasi”: Katta tilni modellashtirishga axloqiy yondashuvni topish

Jon Halamka, MD, Mayo Clinic Platformasi prezidenti

Ishbilarmonlik bilan gaplashish qiyin bo'lishi mumkin.

Masalan, sinovdan o‘tkazish “kompaniya xodimlari tomonidan yangi ishlab chiqilgan mahsulot yoki xizmatdan mijozlarga taqdim etilishidan oldin uni sinab ko‘rish uchun foydalanish”ni nazarda tutadi. O'z navbatida, Trendjacking - bu biznes trend mavzular, xeshteglar, voqealar va memlarga o'tishda nima qiladi.

AI dunyosining o'ziga xos sirli terminologiyasi mavjud: katta til modellari (LLM) va generativ oldindan o'qitilgan transformator (GPT) hozirda ro'yxatning boshida. Yaqinda Tabiatdagi sharh LLM - bu "ma'lumotlardan avtonom ravishda o'rganadigan va matnning katta ma'lumotlar to'plamini o'rgangandan so'ng murakkab va aqlli ko'rinadigan yozishni yaratishi mumkin bo'lgan mashinani o'rganish tizimi" ekanligini tushuntiradi. Xuddi shunday, GPT - bu inson tomonidan yozilgan matn kabi o'qiladigan narsalarni yaratish uchun katta matnli ma'lumotlar to'plamiga kiruvchi til modeli.

Ushbu yangi raqamli vositalar bilan bog'liq va'da va xavf haqida maqolalar hamma joyda. Bir tomondan, ular tibbiy tadqiqotchilar va klinisyenlar uchun va'da berishadi, chunki ular ma'lum bir mavzu bo'yicha nashr etilgan maqolalarning katta to'plamini tahlil qilish va eng muhim ma'lumotlarning qisqacha xulosasini taqdim etish imkoniyatiga ega bo'lishi mumkin. Boshqa tomondan, ushbu vositalar internet va ijtimoiy tarmoqlardan ma'lumot to'plashi sababli, ular ushbu manbalarning ko'pini to'ldiradigan bir xil noto'g'ri qarashlar, noto'g'ri ma'lumotlar va bema'niliklarga duchor bo'lishadi. Ushbu ikki qirrali qilich savolni tug'diradi: LLMlardan axloqiy foydalanish uchun asosni qanday yaratamiz?

"Katta sakrash emas"

Stefan Xarrer, Avstraliyaning Melburn shahridagi Raqamli salomatlik kooperativ tadqiqot markazi bilan yaqinda bu muammoni hal qildi. Lancet eBioMedicine qog'ozi. Uning ta'kidlashicha, bu modellar kompyuterlarning ma'lumotlarni mantiqiy tahlil qilish qobiliyatidagi katta sakrash emas. Ko'pgina GPT ishqibozlari ushbu vositalar sun'iy intellektni inson aql-zakovati va u olib keladigan barcha murakkab kognitiv jarayonlarni takrorlashga bir qadam yaqinlashtiradi degan taassurotda. Aslida, LLMlar "razvedka illyuziyasi" ni anglatadi. Boshqacha qilib aytadigan bo'lsak: "LLM-quvvatlovchi chatbot javoblari qanchalik murakkab ko'rinishi mumkin bo'lsa-da, ular ilgari ko'rgan so'zlar matnda boshqalardan oldinroq bo'lgan modelning keng statistik bilimidan boshqa narsa emas. Ular o'zlari bilan shug'ullanadigan tillarning hech birini tushunmaydilar, na ularga berilgan takliflarni, na ularning javoblarini.

Pol Cerrato, Mayo Clinic Platformasining katta tadqiqotchi tahlilchisi

Bundan tashqari, LLMlar vaqti-vaqti bilan ma'lum bir mavzu bo'yicha haqiqatga to'g'ri keladigan, tegishli, hatto ijodiy - hisobot ishlab chiqarishi mumkin bo'lsa-da, ular avvalgi hisobotda keltirilgan asosli fikrlash va tahlillarga bevosita qarshi bo'lgan hujjat yaratishga qodir.

LLM "gallyutsinatsiyalar"

LLM ning "gallyutsinatsiyalari" ni qanday hal qilish mumkin? Xarrer sun'iy intellekt tizimlari inson qarorlarini qabul qilish jarayonini o'zgartirish uchun emas, balki kuchaytirish uchun mo'ljallanganligini ta'minlaydigan me'yoriy-huquqiy bazani taklif qiladi.

Shuningdek, ular "muntazam ravishda oson kirish mumkin bo'lgan va miqdoriy jihatdan aniqlanishi mumkin bo'lgan ishlash, foydalanish va ta'sir ko'rsatkichlarini ishlab chiqishlari kerak, bu qarorlar qabul qilishda yordam berish va potentsial noto'g'rilikni aniqlashga imkon berish uchun AI qachon va qanday ishlatilishini tushuntiradi". Xuddi shunday muhim, LLM ishlatadigan har qanday AI tizimi yoki hujjat ushbu raqamli vositalar yordamida kontent yaratilganligini aniq ko'rsatishi kerak.

Shunga o'xshash tashvishlar bir nechta tibbiy jurnallarni tadqiqot va nashriyotda LLMlardan foydalanish bo'yicha qat'iy pozitsiyani egallashga undadi. JAMA, masalan, yaqinda mualliflar uchun yo'riqnomasini qayta ko'rib chiqdi va shunday dedi: "Inson bo'lmagan sun'iy intellekt, til modellari, mashina o'rganish yoki shunga o'xshash texnologiyalar mualliflik huquqiga ega emas. Agar ushbu modellar yoki vositalar kontent yaratish yoki yozish yoki qo'lyozma tayyorlashda yordam berish uchun ishlatilsa, mualliflar ushbu vositalar tomonidan yaratilgan tarkibning yaxlitligi uchun javobgarlikni o'z zimmalariga olishlari kerak.

LLMlar ba'zi tanqidchilar qo'rqadigan apokaliptik dahshat bo'lmasligi mumkin, ammo ular, albatta, fikrlash rahbarlari, sog'liqni saqlash mutaxassislari va keng jamoatchilik tomonidan ehtiyotkorlik bilan harakat qilishni talab qiladi.

Bu parchaMayo Klinik Platformasining katta tadqiqotchi tahlilchisi va aloqa bo'yicha mutaxassisi, MD, prezident Jon Halamka va Pol Serrato tomonidan yozilgan maqola dastlab o'zlarining blog sahifalarida e'lon qilingan, Raqamli salomatlik chegarasi.

Ulashish
#Aqlidrok #illyuziyasi #Katta #tilni #modellashtirishga #axloqiy #yondashuvni #topish

Javoblar (0 )