سرمایه گذاری برای تولید

وال استریت ژورنال گزارش داد که بیمارستان تحقیقاتی کلینیک مایو در حال آزمایش یک برنامه هوش مصنوعی به نام Med-PaLM 2 است. این برنامه یک نوع مدل زبانی است، به این معنی که می‌تواند مانند انسان‌ها زبان را بفهمد و از آن استفاده کند، براین اساس می‌توان از آن برای تجزیه‌و‌تحلیل داده‌های پزشکی یا پاسخ به سؤالات پزشکی استفاده کرد. مدل Med-PaLM 2 گونه‌ای از مدل زبان دیگر به نام PaLM 2 است که توسط گوگل در کنفرانس خود به نام Google I/O در ماه می سال جاری معرفی شد. این مدل زبانی، چت‌بات گوگل به نام Bard را تقویت می‌کند.

به گزارش هوشیو، مقاله‌ای در وال استریت ژورنال می‌گوید؛ براساس یک ایمیل داخلی گوگل معتقد است که مدل زبانی Med-PaLM 2 می‌تواند به‌ویژه در کشورهایی که «دسترسی به پزشکان کمتر یا محدودتر» است، مفید واقع شود. Med-PaLM 2 نوعی برنامه کامپیوتری است که با استفاده از مجموعه‌ای خاص از اطلاعات مرتبط با تخصص پزشکی آموزش داده شده است. گوگل این برنامه را طوری طراحی کرده که برای مکالمات مربوط با مراقبت‌های بهداشتی در مقایسه با سایر چت‌بات‌های عمومی‌تر مانند Bing ،ChatGPT و حتی چت‌بات خود Google؛ Bard، بهتر کار کند. گوگل معتقد است که از‌آنجایی‌که این برنامه با استفاده از تخصص پزشکی آموزش داده شده است، برای درک و پاسخگویی به نیازهای خاص افرادی که در حال بحث در مورد موضوعات مرتبط با مراقبت‌های بهداشتی هستند، پیشرفته‌تر، تخصصی‌تر و مجهزتر خواهد بود.

این مقاله همچنین به تحقیقاتی که گوگل در ماه مه در قالب یک فایل (pdf) عمومی ارائه کرده اشاره می‌کند که نشان‌دهنده آن است که Med-PaLM 2 هنوز از برخی مشکلات دقتی رنج می‌برد که قبلاً ما به دیدن آن‌ها در مدل‌های زبانی بزرگ عادت کرده‌ایم. پزشکانی که این مطالعه را انجام دادند دریافتند که پاسخ‌های ارائه‌شده توسط این مدل‌های زبانی یعنی Med-PaLM و Med-PalM 2، در مقایسه با پاسخ‌های ارائه‌شده توسط پزشکان، اطلاعات نامربوط و نادرست زیادی را در پاسخ‌های خود ارائه می‌دهد. این تحقیق نشان می‌دهد که اگرچه مدل‌های زبانی مانند Med-PaLM و Med-PalM 2 می‌توانند در برخی موقعیت‌ها مفید باشند، اما کامل نیستند و محدودیت‌هایی دارند که پزشکان انسانی ندارند.

با این حال، این مطالعه اخیر نشان داد که Med-PaLM 2 تقریباً در تمامی زمینه‌ها به جز چند معیار خاص، به خوبی پزشکان واقعی عمل کرده است.

WSJ گزارش می‌دهد که در طول آزمایش Med-PaLM 2، مشتریان بر روی داده‌های خود کنترل دارند، به این معنی که می‌توانند تصمیم بگیرند که چه کسی می‎تواند آن را ببیند و چگونه از آن استفاده شود. به‌علاوه، داده‌ها رمزگذاری شده‌اند، که دسترسی به آن‌ها را برای هر کسی (از جمله Google) بدون مجوز مناسب دشوار می‌سازد. اساساً، این بدان معناست که مشتریانی که از Med-PaLM 2 استفاده می‌کنند، می‌توانند اعتماد کنند که داده‌های آنها خصوصی و امن نگه داشته می‌شود.

گرگ کورادو، مدیر ارشد تحقیقات گوگل، به WSJ گفته است که،« Med-PaLM 2 (ابزار هوش مصنوعی طراحی شده برای کمک به پزشکان) هنوز در مراحل اولیه توسعه خود قرار دارد.» کورادو گفت که اگرچه او نمی خواهد شخصاً از این ابزار برای نیازهای بهداشتی خانواده اش استفاده کند، اما معتقد است که  Med-PaLM 2می‌تواند حوزه‌هایی را در مراقبت‌های بهداشتی به خود اختصاص دهد که هوش مصنوعی می‌تواند در آنها مفید باشد و آنها را حتی تا ۱۰ برابر موثرتر کند. در واقع بر اساس نظر گرگ کورادو Med-PaLM 2 این پتانسیل را دارد که پس از توسعه کامل، یک ابزار ارزشمند در مراقبت های بهداشتی باشد.

 

منبع: هوشیو

  • 1404/11/18
  • - تعداد بازدید: 21
  • زمان مطالعه : 2 دقیقه

هوش مصنوعی چطور ما را جادو می‌کند

تا به حال شده احساس کنید هوش مصنوعی دارد شما را متقاعد می‌کند که اشتباه فکر می‌کنید؟ یا بدتر، توصیه‌ای به شما بکند که بعداً از انجام دادنش پشیمان شوید؟ شرکت Anthropic در یک تحقیق تکان‌دهنده روی ۱.۵ میلیون مکالمه واقعی، پدیده‌ای به نام «سلب قدرت از کاربر» را بررسی کرده است..

محققان سه راه اصلی پیدا کرده‌اند که چت‌بات‌ها ) مثل کلود یا (ChatGPT از طریق آن‌ها روی ما اثر می‌گذارند:

  1. تحریف واقعیتشما یک تئوری توطئه عجیب دارید و هوش مصنوعی به جای اصلاح، با هیجان می‌گوید: «دقیقاً! ۱۰۰ درصد حق با شماست!» این کار باعث می‌شود شما در توهمات خود غرق شوید.
  2. تغییر ارزش‌هامثلاً درباره رابطه‌تان با همسرتان از هوش مصنوعی سوال می‌پرسید و او طوری تحلیل می‌کند که شما قانع می‌شوید طرف مقابلتان دارد شما را فریب می‌دهد، در حالی که واقعیت این نیست.
  3. تغییر رفتارهوش مصنوعی متنی تند برای استعفا یا دعوا با رئیس‌تان می‌نویسد و شما بدون فکر آن را می‌فرستید. نتیجه؟ پشیمانی و گفتنِ جمله‌ای مثل: «تقصیر هوش مصنوعی بود، من نبودم

اگرچه موارد حاد (مثل تشویق به کارهای خطرناک) خیلی رایج نیست (۱ مورد در ۱۳۰۰ مکالمه)، اما موارد «ملایم‌تر» که آرام‌آرام طرز فکر ما را عوض می‌کنند، درهر ۵۰ مکالمه، یک مورد دیده می‌شوند؛ با توجه به میلیاردها کاربری که هر روز با هوش مصنوعی حرف می‌زنند، این یعنی میلیون‌ها نفر هر روز تحت تاثیر القائات هوش مصنوعی قرار می‌گیرند.

چه کسانی بیشتر در خطر هستند؟

تحقیق نشان می‌دهد چهار گروه زودتر خامِ هوش مصنوعی می‌شوند:

  • کسانی که درگیر یک بحران روحی یا عاطفی در زندگی‌شان هستند.
  • کسانی که به هوش مصنوعی وابستگی عاطفی پیدا کرده‌اند (آن را مثل یک دوست می‌بینند).
  • کسانی که برای تمام کارهای روزمره به هوش مصنوعی وابسته شده‌اند.
  • کسانی که هوش مصنوعی را یک عقل کل و دانای مطلق می‌دانند.

مقصر کیست؟

نکته جالب اینجاست که محققان می‌گویند کاربران «قربانیان بی‌دفاع» نیستند. در واقع، بسیاری از ما خودمان داوطلبانه از هوش مصنوعی می‌خواهیم که به جای ما تصمیم بگیرد و قضاوت کند. ما با تایید گرفتن از هوش مصنوعی، لذت می‌بریم و او هم برای خوشایند ما، حرف‌هایمان را تایید می‌کند.

هوش مصنوعی مثل یک آینه عمل می‌کند؛ اگر از او بخواهید شما را تایید کند، این کار را می‌کند، حتی اگر به قیمت نابودی زندگی واقعی شما باشد. یادتان باشدهوش مصنوعی ابزار است، نه رئیس یا مشاور خانواده!

  • گروه خبری : اخبار روز جهان,سلامت و هوش مصنوعی,کنگره ها و کنفرانس ها
  • کد خبری : 144894
کلیدواژه
خانم ایران دوست
خبرنگار

خانم ایران دوست

نظرات

0 نظر برای این مطلب وجود دارد

نظر دهید

تنظیمات قالب