هنگامی که نوبت به مراقبت از سلامتی آنها می‌رسد، بیماران با هوش مصنوعی قطع می‌شوند – بینش‌های مرکز تحقیقات پیو


بر اساس مطالعات انجام شده توسط مرکز تحقیقاتی Pew، اکثر شهروندان بهداشتی ایالات متحده فکر می کنند که هوش مصنوعی در مراقبت های بهداشتی آمریکا خیلی سریع به کار گرفته می شود، و بر اساس مطالعات مصرف کنندگان از مرکز تحقیقات پیو، “ناراحتی قابل توجهی … با ایده استفاده از هوش مصنوعی در مراقبت های بهداشتی خود احساس می کنند.”

 

 

 

 

 

 

 

 

نکته اصلی این است که 60 درصد آمریکایی‌ها از آن ناراحت هستند [their health] ارائه‌دهنده‌ای که برای مراقبت از خود به هوش مصنوعی تکیه می‌کند، در یک نظرسنجی مصرف‌کننده که در دسامبر 2022 در میان بیش از 11000 بزرگسال آمریکایی انجام شد، یافت شد.

بیشتر مصرف‌کنندگانی که از کاربردهای رایج هوش مصنوعی آگاه هستند، ردیاب‌های تناسب اندام پوشیدنی را می‌دانند که می‌توانند ورزش و الگوهای خواب را تجزیه و تحلیل کنند، به‌عنوان یک برنامه برتر سلامت/تندرستی برای این فناوری. نمونه‌های رایج دیگر هوش مصنوعی در زندگی روزمره عبارتند از ربات‌های چت که به سؤالات مشتریان پاسخ می‌دهند، توصیه‌های محصول بر اساس خریدهای قبلی و دوربین‌های امنیتی که هنگام «دیدن» یک فرد ناشناس در درب خانه، هشدار ارسال می‌کنند.

 

 

 

 

 

 

 

 

 

مرکز تحقیقاتی پیو بر اساس داده‌های جمع‌آوری‌شده در نظرسنجی مصرف‌کنندگان در دسامبر 2022، چندین تحلیل منتشر کرده است. من در اینجا روی چند مورد از داده‌های بهداشتی/مراقبتی تمرکز می‌کنم، اما توصیه می‌کنم کل مجموعه گزارش‌ها را مرور کنید تا بدانید مصرف‌کنندگان آمریکایی چگونه به هوش مصنوعی در زندگی روزمره نگاه می‌کنند.

در میان مصرف‌کنندگان آمریکایی که از کاربردهای هوش مصنوعی آگاه هستند، بیش از نیمی از ربات‌هایی که می‌توانند جراحی انجام دهند و همچنین ابزارهای هوش مصنوعی که می‌توانند سرطان پوست را تشخیص دهند، پیشرفت‌های عمده‌ای در مراقبت‌های پزشکی هستند.

برای مدیریت درد و چت بات ها برای سلامت روان؟ نه چندان پیشرفت های بزرگ به اندازه پیشرفت های جزئی که یک سوم مصرف کنندگان آن را درک می کنند.

برای سلامت روان، 46 درصد از مصرف‌کنندگان فکر می‌کردند که چت ربات‌های هوش مصنوعی فقط باید توسط افرادی استفاده شود که به درمانگر نیز مراجعه می‌کنند. این نظر تقریباً به همان نسبت افرادی بود که در مورد چت ربات های هوش مصنوعی برای سلامت روان شنیده بودند با افرادی که در مورد استفاده از چت ربات های هوش مصنوعی برای سلامت روان نمی دانستند.

 

 

 

 

 

 

 

 

 

کمتر از نیمی از مردم انتظار دارند هوش مصنوعی در سلامت و پزشکی باعث بهبود نتایج بیماران شود. توجه داشته باشید که یک سوم مردم انتظار دارند هوش مصنوعی منجر به نتایج بدتری برای سلامتی شود.

خطاهای پزشکی همچنان مراقبت های بهداشتی آمریکا را به چالش می کشد. حدود 4 نفر از هر 10 نفر به پتانسیل هوش مصنوعی برای کاهش تعداد اشتباهات ارائه دهندگان مراقبت های بهداشتی و همچنین فرصتی برای هوش مصنوعی برای رسیدگی به سوگیری های مراقبت های بهداشتی و برابری سلامت نگاه می کنند.

این فرصت مهمی برای برنامه‌های کاربردی هوش مصنوعی در مراقبت‌های بهداشتی ایالات متحده است: از هر سه بزرگسال سیاه‌پوست دو نفر می‌گویند که تعصب بر اساس نژاد یا قومیت بیماران همچنان یک مشکل بزرگ در سلامت و پزشکی است و یک چهارم دیگر تعصب را جزئی عنوان می‌کنند. مشکلی که در مطالعه Pew یافت شد.

 

 

 

 

 

 

 

نکات داغ Health Populi: از آنجایی که صنعت به حرکت سریع‌تر و سریع‌تر به سمت هوش مصنوعی ادامه می‌دهد، و در حال حاضر منحنی S-استیک هاکی ChatGPT اتخاذ شده است، رسانه‌های جمعی این موضوع را پوشش می‌دهند تا به مصرف‌کنندگان کمک کنند تا با این فناوری همگام شوند. USA Today مقاله ای متوازن و تحقیق شده با عنوان “ChatGPT آماده است اطلاعات پزشکی را تغییر دهد. خوب و بد.»

کارن واینتراب در پوشش خود به ما یادآوری می کند: «ChatGPT پیش‌نمایش تحقیقاتی خود را در دوشنبه ماه دسامبر راه‌اندازی کرد [2022]. در آن روز چهارشنبه، طبق گزارش ها، 1 میلیون کاربر داشت. در ماه فوریه، مایکروسافت و گوگل اعلام کردند که قصد دارند برنامه‌های هوش مصنوعی مشابه ChatGPT را در موتورهای جستجوی خود قرار دهند.

دکتر Ateev Mehrotra از هاروارد و Beth Israel Deaconess، که همیشه نیرویی از داده های خوب و مراقبت های بهداشتی مبتنی بر شواهد است، افزود: بهترین کاری که می‌توانیم برای بیماران و عموم مردم انجام دهیم این است (بگوییم)، هی، این ممکن است یک منبع مفید باشد، اطلاعات مفید زیادی دارد – اما اغلب اشتباه می‌کند و به این موضوع عمل نکنید. اطلاعات فقط در فرآیند تصمیم گیری شماست.”

و دکتر جان هالامکا، که اکنون رئیس پلتفرم کلینیک مایو است، به این نتیجه رسید که اگرچه هوش مصنوعی و ChatGPT جایگزین آنها نمی‌شوند، “پزشکانی که از هوش مصنوعی استفاده می‌کنند احتمالا جایگزین پزشکانی خواهند شد که از هوش مصنوعی استفاده نمی‌کنند.” دکتر هالامکا همچنین اخیراً در مورد پیشرفت های هوش مصنوعی و ChatGPT در مراقبت های بهداشتی در این پخش اینترنتی AMA Update بحث کرده است.

از دیدگاه بیمار، ستون مایکل ال. میلنسون را بررسی کنید فوربس بحث در مورد اینکه چگونه در سرطان، هوش مصنوعی می تواند بیماران را توانمند کند و روابط آنها را با پزشکان و سیستم مراقبت تغییر دهد.

مقاله اخیر در گفتگو، که توسط یک متخصص اخلاق پزشکی نوشته شده است، طیفی از مسائل اخلاقی را که پذیرش Chat-GPT در مراقبت های بهداشتی می تواند ارائه دهد، بررسی کرد. نقض حریم خصوصی داده‌های بیمار، از بین رفتن اعتماد بیمار، نحوه تولید دقیق شواهدی مبنی بر سودمندی این فناوری، و تضمین ایمنی در ارائه مراقبت‌های بهداشتی از جمله خطراتی است که نویسندگان به آن اشاره می‌کنند، و همچنین پتانسیل ایجاد شکاف دیجیتال و سلامت بیشتر است. نابرابری ها

واکس این هفته مقاله ای را منتشر کرد که در آن به کاهش سرعت پذیرش هوش مصنوعی استدلال می کرد. سیگال ساموئل اظهار داشت: «ترمز کردن هوش مصنوعی می‌تواند بهترین کاری باشد که تا به حال برای بشریت انجام داده‌ایم.» او استدلال می‌کند که “پیشرفت در هوش مصنوعی اخیراً چنان با سرعت باورنکردنی در حال حرکت است که این سوال اجتناب ناپذیر شده است: تا کی تا زمانی که هوش مصنوعی بر دنیای ما تسلط داشته باشد تا جایی که ما به جای پاسخگویی به ما به آن پاسخ دهیم؟”

سیگال سه ایرادی را که طرفداران هوش مصنوعی در این مرحله نوپای پذیرش صعودی مطرح می‌کنند، از بین می‌برد:

  • اعتراض 1: “پیشرفت فناوری اجتناب ناپذیر است و تلاش برای کاهش سرعت آن بیهوده است”
  • اعتراض 2: “ما نمی خواهیم مسابقه تسلیحاتی هوش مصنوعی با چین را از دست بدهیم” و
  • اعتراض 3: “ما باید با هوش مصنوعی پیشرفته بازی کنیم تا بفهمیم چگونه هوش مصنوعی پیشرفته را ایمن کنیم.”

دیروز، مایکروسافت و Nuance ابزار مستندسازی بالینی خودکار خود را که با GPT-4 و مدل “مکالمه” (یعنی چت) تعبیه شده است، اعلام کردند.

با توجه به پذیرش سریع هوش مصنوعی در مراقبت های پزشکی، و ChatGPT به عنوان یک مورد استفاده، همه ما به عنوان بیماران و مراقبان و کارگران در اکوسیستم بهداشتی/مراقبتی تحت تاثیر این فناوری قرار خواهیم گرفت. بر همه ما واجب است که به روز بمانیم، صادق و شفاف بمانیم، و برای آموختن اینکه چه چیزی موثر است و چه چیزی مفید نیست، باز بمانیم. و برای اطمینان از اعتماد بین بیماران، پزشکان و سیستم مراقبت‌های بهداشتی بزرگ‌تر، باید با احساس حریم خصوصی و برابری بر اساس طراحی عمل کنیم، به احساس ارزش‌ها و ارزش مردم احترام بگذاریم و با شفافیت و احترام برای همه رفتار کنیم.

در حالت امیدوارانه، دکتر جان هالامکا گفتگوی خود را در AMA Update با این دیدگاه خوش بینانه به پایان رساند: «پس چطور در مورد این – اگر در نسل من، ما بتوانیم 50 درصد بار را برداریم، نسل بعدی در عمل لذت خواهد برد. “

فعلاً این بحث را خاتمه می‌دهیم و برای شما آرزوی شادی در جریان کار و زندگی‌تان دارم!

این پست هنگامی که نوبت به مراقبت از سلامتی آنها می‌رسد، ارتباط هوش مصنوعی قطع می‌شود – بینش‌های مرکز تحقیقات پیو اولین بار در HealthPopuli.com ظاهر شد.