سازنده ChatGPT پایان عمر هوش مصنوعی غول پیکر را اعلام کرد
تاریخ انتشار: ۲۹ فروردین ۱۴۰۲ | کد خبر: ۳۷۵۶۲۸۲۰
سم آلتمن، مدیرعامل OpenAI، گفت: عصر مدلهای زبانی غولپیکر به پایان رسیده است و باید هوش مصنوعی را به شیوههای دیگری بهبود داد.
تواناییهای حیرتانگیز ChatGPT، چتبات خبرساز شرکت OpenAI، باعث افزایش شدید محبوبیت و سرمایهگذاری در حوزهی هوش مصنوعی شده است؛ بااینحال، سم آلتمن، مدیرعامل OpenAI، روز گذشته گفت: استراتژی تحقیقاتیای که به تولد چت جیپیتی منتهی شد، بهپایان رسیده است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
گفتنی است که مشخص نیست که پیشرفتهای بعدی هوش مصنوعی قرار است ازطریق چه استراتژیهایی بهدست بیایند.
در سالهای اخیر، OpenAI به پیشرفتهای تحسینبرانگیزی درزمینهی هوش مصنوعی دست پیدا کرده است. این شرکت الگوریتمهای یادگیری ماشین را که پیشتر ساخته شده بودند، بسیار بزرگتر کرد. GPT-۴، جدیدترین پروژهی مدل زبانی OpenAI، احتمالاً برپایهی تریلیونها کلمه و هزاران پردازندهی گرافیکی پرقدرت تعلیم داده شده است. دستیابی به چنین مدل پیشرفتهای نیازمند هزینه بیش از ۱۰۰ میلیون دلار است.
سم آلتمن گفت: پیشرفتهای بیشتر هوش مصنوعی قرار نیست در نتیجه بزرگترکردن مدلهای زبانی حاصل شود. مدیرعامل OpenAI اعتقاد دارد پایان عصر مدلهای غولپیکر فرارسیده است و او و اعضای تیمش در تلاشند تا مدلها را به شیوههایی دیگر بهتر کنند.
گفتههای غیرمنتظره سم آلتمن جدیدترین نمونه از تحولات برقآسای حوزهای است که در ماههای اخیر به ترند اول صنعت فناوری تبدیل شده است. از زمان انتشار ChatGPT در پایان سال گذشته میلادی، مایکروسافت از فناوری بهکاررفته در این چتبات در بسیاری از سرویسهایش از جمله موتور جستوجوی بینگ استفاده کرده و گوگل نیز سراغ معرفی چتباتی به نام «بارد» رفته است.
در همین حین که مدیرعامل OpenAI از پایان عصر مدلهای بزرگ میگوید، استارتاپهای دیگری نظیر Anthropic و AI۲۱ و Cohere و Character.AI که بودجه مالی زیادی دراختیار دارند، با تمام توان میکوشند تا مدلهای زبانی بسیار بزرگتری بسازند.
براساس گزارشها، احتمالاً GPT-۴ آخرین مدل زبانی بزرگ OpenAI خواهد بود. آلتمن فعلاً نگفته است که شرکتش برای بهینهسازی هوش مصنوعی سراغ چه روشهای دیگری میرود. یکی از بنیانگذاران Cohere با گفتههای آلتمن موافق است و میگوید مدلهای زبانی را میتوان بدون اضافهکردن پارامترهای جدید، بهبود چشمگیری بخشید.
منبع:وایرد
باشگاه خبرنگاران جوان علمی پزشکی فناوریمنبع: باشگاه خبرنگاران
کلیدواژه: هوش مصنوعی چت بات مدل های زبانی مدیرعامل OpenAI ی هوش مصنوعی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.yjc.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۵۶۲۸۲۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
ارزیابی مشکلات قلبی را به ChatGPT نسپارید!
ایتنا - پژوهشگران «دانشگاه ایالتی واشنگتن» در یک آزمایش جدید دریافتند که ChatGPT نمیتواند عملکرد خوبی را در ارزیابی مشکل قلبی داشته باشد.
به رغم تواناییهای گزارش شده درباره ChatGPT برای قبول شدن در آزمونهای پزشکی، یک پژوهش جدید نشان میدهد که اتکا به این فناوری برای برخی ارزیابیهای سلامتی مانند بررسی نیاز بیمار مبتلا به درد قفسه سینه به بستری شدن در بیمارستان عاقلانه نیست.
به گزارش ایتنا از ایسنا، در پژوهش جدیدی که شامل هزاران وضعیت شبیهسازی شده از بیماران مبتلا به درد قفسه سینه است، ChatGPT نتایج متناقضی را ارائه کرد و سطوح متفاوتی را از ارزیابی خطر مشکل قلبی در دادههای بهدستآمده از بیماران نشان داد. همچنین، این سیستم هوش مصنوعی مولد نتوانست با روشهای سنتی مطابقت داشته باشد که پزشکان از آنها برای قضاوت درباره خطر مشکل قلبی بیمار استفاده میکنند.
دکتر «توماس هستون»(Thomas Heston) پژوهشگر دانشکده پزشکی «دانشگاه ایالتی واشنگتن»(WSU) گفت: ChatGPT به یک شیوه ثابت عمل نمیکرد. با توجه به دادههای مشابه، ChatGPT رتبه خطر پایینی را ارائه میدهد. دفعه بعد یک رتبه متوسط را پیشبینی میکند و گهگاه تا افزایش خطر پیش میرود.
هستون گفت: پژوهشگران باور دارند این مشکل احتمالا به دلیل سطح تصادفی بودن نسخه کنونی نرمافزار ChatGPT۴ است که به آن کمک میکند تا پاسخهایی را برای شبیهسازی زبان طبیعی ارائه دهد. با وجود این، همین تصادفی بودن باعث میشود نرمافزار برای کاربردهای حوزه سلامت که به یک پاسخ منسجم نیاز دارند، به خوبی کارآیی نداشته باشد.
هستون ادامه داد: ما متوجه شدیم که تنوع زیادی وجود دارد و این تنوع در رویکرد میتواند خطرناک باشد. این فناوری میتواند برنامه سودمندی باشد اما من معتقدم که فناوری بسیار سریعتر از درک ما پیش میرود. بنابراین، بسیار مهم است که پژوهشهای بسیاری را به ویژه در موقعیتهای بالینی پرخطر انجام دهیم.
درد قفسه سینه، یکی از شکایتهای رایج در اورژانس است که پزشکان را ملزم میکند تا فوریت وضعیت بیمار را مورد ارزیابی قرار دهند. هستون گفت: برخی از موارد بسیار جدی را به راحتی میتوان با توجه به علائم آنها شناسایی کرد اما موارد کمخطر ممکن است پیچیدهتر باشند؛ به ویژه هنگام تعیین اینکه آیا بیماری باید برای بررسی بیشتر در بیمارستان بستری شود یا به خانه برود و مراقبتهای سرپایی را دریافت کند.
متخصصان پزشکی در حال حاضر اغلب از یکی از دو معیار موسوم به TIMI و HEART برای ارزیابی خطر مشکل قلبی استفاده میکنند. هستون این مقیاسها را به ماشینحسابهایی تشبیه کرد که متغیرهای انگشتشمار را مانند علائم، سابقه سلامت و سن استفاده میکنند. در مقابل، یک شبکه عصبی هوش مصنوعی مانند ChatGPT میتواند میلیاردها متغیر را به سرعت ارزیابی کند. این بدان معناست که شاید ChatGPT بتواند یک موقعیت پیچیده را سریعتر و دقیقتر تحلیل کند.
برای این پژوهش، هستون و همکارش دکتر «لارنس لوئیس»(Lawrence Lewis) پژوهشگر «دانشگاه واشنگتن در سنت لوئیس»(WashU) ابتدا سه مجموعه داده را از ۱۰ هزار مورد تصادفی و شبیهسازیشده ایجاد کردند. یک مجموعه داده دارای هفت متغیر مقیاس TIMI، مجموعه دوم شامل پنج متغیر مقیاس HEART و مجموعه سوم دارای ۴۴ متغیر تصادفی سلامت بود. در دو مجموعه داده اول، ChatGPT ارزیابی خطر متفاوتی را در ۴۵ تا ۴۸ درصد مواقع نسبت به امتیاز ثابت TIMI یا HEART ارائه کرد. پژوهشگران برای آخرین مجموعه داده، موارد را چهار بار اجرا کردند و دریافتند که ChatGPT اغلب با خودش موافق نیست و در ۴۴ درصد مواقع، سطوح ارزیابی متفاوتی را برای موارد مشابه ارائه میدهد.
به رغم یافتههای منفی این پژوهش، هستون پتانسیل زیادی را برای هوش مصنوعی مولد در مراقبتهای بهداشتی پیشبینی میکند. به عنوان مثال، با فرض رعایت استانداردهای حفظ حریم خصوصی، کل سوابق پزشکی را میتوان در برنامه بارگذاری کرد و در شرایط اضطراری، پزشک میتواند از ChatGPT بخواهد تا سریعترین حقایق را درباره یک بیمار ارائه دهد. همچنین، پزشکان برای موارد دشوار و پیچیده میتوانند از برنامه بخواهند تا چندین تشخیص احتمالی را ارائه دهد.
هستون گفت: ChatGPT میتواند در ارائه دادن تشخیص افتراقی عالی باشد و این احتمالا یکی از بزرگترین نقاط قوت آن است. اگر کاملا نمیدانید که درباره یک بیمار چه میگذرد، میتوانید از ChatGPT بخواهید تا پنج تشخیص اصلی و استدلال خود را برای هر یک از آنها ارائه دهد. بنابراین، ChatGPT میتواند به شما کمک کند تا درباره یک مشکل فکر کنید اما در پاسخ دادن خوب نیست.
این پژوهش در مجله «PLOS ONE» به چاپ رسید.