دستاوردهای هوش مصنوعی

چت‌جی‌پی‌تی چه دستاوردهایی برای دنیای علم خواهد داشت؟

در شرایطی که بسیاری از پژوهش‌گران در مورد آخرین پیشرفت‌های هوش مصنوعی و ابزار چت جی‌پی‌تی هیجان‌زده شده‌اند و کاربران زیادی برای انجام کارهای خود به سراغ آن رفته‌اند، اما در مقابل برخی دیگر نگران هستند. در شهریور ماه سال 2022 میلادی، زیست‌شناسان محاسباتی، کیسی گرین و میلتون پیویدوری، آزمایش غیرعادی‌ای انجام دادند. آن‌ها از یک دستیار غیرمتخصص درخواست کردند به آن‌ها در ویرایش سه مقاله پژوهشی کمک کند. دستیار مستعد توانست تنها در مدت زمان چند ثانیه اصلاحاتی را روی بخش‌هایی از اسناد پیشنهاد دهد و جالب آن‌که بازبینی هر یک از متن‌ها تنها 5 دقیقه طول کشید. نیچر در مقاله‌ای که در همین زمینه منتشر کرده به این نکته اشاره دارد که در یکی از متون پیش‌نویس زیست‌شناسی، دستیار آن‌ها حتا اشتباه در ارجاع دادن به یک معادله را به‌درستی شناسایی کرد و جالب آن‌که هزینه بازبینی هر یک از متن‌ها چیزی در حدود پنج سنت بود. این دستیار، همان‌گونه که گرین و پیویدوری در مقاله پیش‌نویس خود در ماه فوریه به آن اشاره کردند، یک شخص نبود بلکه الگوریتم هوشمند چت‌جی‌پی‌تی بود.

چت‌جی‌پی‌تی یکی از محبوب‌ترین ابزارهای هوشمند پردازش زبان طبیعی است که می‌تواند با سرعت زیادی متون تقریبا شیوایی را تولید کند و قادر است متونی مثل نثر، شعر و کدهای برنامه‌نویسی بنویسد یا شبیه به موردی که به آن اشاره کردیم، مقاله‌های پژوهشی را ارزیابی کند. امروزه، ابزارهای مختلفی بر مبنای مدل‌های زبانی بزرگ (LLM) به دنیای فناوری وارد شده‌اند که معروف‌ترین آن‌ها چت‌جی‌پی‌تی محصول شرکت OpenAI استچت‌جی‌پی‌تی پس از انتشار در نوامبر سال گذشته به شهرت رسید، زیرا رایگان است و به سهولت در دسترس مردم قرار دارد. میلتون پیویدوری که در دانشگاه پنسیلوانیا کار می‌کند، در این باره گفته است: «کاملا شگفت‌زده شدم. این ابزار به ما کمک می‌کند تا به‌عنوان محقق عملکرد بهتری داشته باشیم و روی موضوعات مهم متمرکز شویم».

اکنون بخش عمده‌ای از دانشمندان به‌شکل روزانه از مدل‌های زبانی بزرگ نه‌تنها برای ویرایش پیش‌نویس مقاله‌ها، بلکه برای کمک به نوشتن مقاله‌ها، بررسی کدها یا ایده‌پردازی استفاده می‌کنند. هافستاین اینارسون، دانشمند علوم کامپپیوتر دانشگاه ایسلند می‌گوید: «روزانه از مدل‌های زبانی بزرگ استفاده می‌کنم». او کار خود را با چت‌جی‌پی‌تی آغاز کرد و در نهایت تصمیم گرفت به سراغ نسخه پیشرفته‌تر چت‌جی‌پی‌تی (GPT-4) برود تا به او در ‌آماده‌سازی اسلایدهای آموزشی، نوشتن آزمون‌های دانشجویی و بررسی پایان‌نامه‌های دانشجویانش کمک کند. او می‌گوید: «بسیاری از مردم از چت‌جی‌پی‌تی به‌‌عنوان دستیار دیجیتال استفاده می‌کنند. به عقیده من در آینده نزدیک مدل‌های زبانی بزرگ بخشی از موتورهای جست‌وجو، دستیاران کدنویسی و چت‌باتی خواهند شد که با چت‌بات‌های شرکت‌های دیگر مذاکره می‌کنند تا روند بستن قراردادها یا خرید محصولات را تسهیل کنند».

لازم به توضیح است که چت‌جی‌پی‌تی توسط سازمان OpenAI در سانفرانسیسکوی کالیفرنیا سرویس اشتراکی و ویژه را با قیمت 20 دلار در ماه در دسترس مردم قرار می‌دهد که فرآیند پاسخ‌گویی سریع‌تر دارد و ویژگی‌های جدیدی در اختیار کاربران قرار می‌دهد. البته، نسخه آزمایشی آن رایگان است

سرآغاز راهی بزرگ با مدل‌های زبانی

مدل‌های زبانی بزرگ در آینده نزدیک در نرم‌افزارهای عمومی پردازش کلمه و داده به‌شکل گسترده‌ای مورد استفاده قرار می‌گیرند. تقریبا همه کارشناسان و بزرگان دنیای فناوری بر این باور هستند که هوش مصنوعی عمومی در آینده نزدیک به‌شکل گسترده‌ای در جامعه مورد استفاده قرار خواهد گرفت، اما مدل‌های زبانی بزرگ چالش‌هایی را نیز به‌همراه دارند. از جمله این چالش‌ها باید به انتشار اخبار جعلی، تولید محتوایی که افراد آن‌را حاصل دست‌رنج خود نشان دهند و انتشار اطلاعات علمی اشتباه اشاره کرد

هنگامی که مجله نیچر از پژوهش‌گران در مورد کاربردهای شاخص چت‌بات‌هایی مثل چت‌جی‌پی‌تی در حوزه علم سوال کرد، آن‌ها نگرانی‌های ذهنی خود را ابزار داشتند. گرین از دانشکده پزشکی دانشگاه کلرادو در این باره می‌گوید: «اگر تصور می‌کنید این فناوری تحول‌آفرین خواهد بود، باید کمی تامل کنید، زیرا در آینده نزدیک اتفاقات بزرگی رخ خواهد داد. نگرانی‌ها تا حد زیادی بستگی به این مسئله دارد که چه مقرراتی در آینده وضع خواهند شد و چگونه ممکن است استفاده از چت‌بات‌های هوش مصنوعی را محدود کنند».

عملکردی روان، به دور از واقعیت 

برخی از پژوهش‌گران بر این باور هستند که مدل‌های زبانی بزرگ به‌منظور شتاب بخشیدن به وظایفی مثل نوشتن مقاله‌ها یا ارزیابی کدها مناسب هستند. المیرا تونستروم، عصب‌زیست‌شناس بیمارستان دانشگاه سالگرنسکا سوئد که با کمک همکارانش به‌عنوان یک آزمایش، مقاله‌ای را با استفاده از چت‌جی‌پی‌تی نوشته، می‌گوید: « دانشمندان دیگر به انتظار نخواهند نشست تا مقدمه‌های طولانی برای درخواست کمک‌های مالی بنویسند. آن‌ها از پلتفرم‌های هوشمند برای انجام این‌کار استفاده می‌کنند».

تام تومیل، مهندس شرکت نرم‌افزاری اینستا دیپ لندن می‌گوید: «روزانه از مدل‌های زبانی بزرگ به‌‌عنوان دستیاری برای ارزیابی کدهای نوشته‌شده، استفاده می‌کنم. به نظرم عملکرد پلتفرم‌های هوشمند در این زمینه بهتر از وب‌سایت‌های محبوب و پرمخاطبی مثل استک اورفلو است که در آن کدنویس‌ها به پرسش‌های یک‌دیگر پاسخ می‌دهند».

پژوهشگران دیگر به این نکته اشاره دارند که مدل‌های زبانی بزرگ در پاسخ‌‌گویی به پرسش‌ها قابل اعتماد نیستند و گاهی‌‌اوقات پاسخ‌های اشتباهی تولید می‌کنند. تونستروم می‌گوید: «هنگامی که از این سامانه‌ها برای تولید دانش استفاده می‌کنید باید کاملا دقت کنید».

غیرقابل اعتماد بودن به ماهیت طبیعی مدل‌های زبانی بزرگ باز می‌گرددچت‌جی‌پی‌تی و نمونه‌های مشابه آن با یادگیری الگوهای آماری زبان در پایگاه‌های داده بزرگ متنوع آنلاین کار می‌کنند که شامل مطالب غیرواقعی، سوگیری یا اطلاعات قدیمی است. وقتی به مدل‌های زبانی بزرگ دستوراتی داده می‌شود، مثل نمونه‌ای که در ابتدای مقاله به آن اشاره شد و در ادامه درخواست می‌شود تا مقالات را بازبینی و بازنویسی کند، آن‌ها کلمه به کلمه متنی را تولید می‌کنند که از نظر اصول نگارشی صحیح است. نتیجه این است که مدل‌های زبانی بزرگ به‌ویژه در مورد موضوعات فنی که ممکن است داده‌های کمی برای آموزش آن‌ها وجود داشته باشند، به‌‌راحتی اطلاعات گمراه‌کننده تولید می‌کنند. علاوه بر این، مدل‌های فوق نمی‌توانند صحت منابع و اطلاعاتی را که از آن‌ها استفاده می‌کنند به‌دقت ارزیابی کنند. اگر از آن‌ها خواسته شود مقاله‌ای دانشگاهی بنویسند، نقل ‌قول‌های غیرواقعی تولید می‌کنند. مجله‌ Nature Machine Intelligence در سرمقاله ماه ژانویه خود در مورد چت‌جی‌پی‌تی به این نکته اشاره دارد که نمی‌توان به این ابزار برای تولید ارجاعات قابل اعتماد یا اطلاعات دقیق اطمینان کرد.

اگر کاربران با توجه به این نکات از چت‌جی‌پی‌تی و دیگر مدل‌های زبانی بزرگ استفاده کنند، این ابزارها به دستیاران کارآمدی تبدیل می‌شوند که قادر هستند مشکلات را شناسایی کرده و پیشنهاداتی برای اصلاح متون یا کدهای کامپیوتری ارائه کنند. البته، فرد باید تخصص لازم در حوزه کاری خود را داشته باشد

در نقطه مقابل، این ابزارها ممکن است کاربران بدون تخصص را دچار اشتباه کنند. به‌طور مثال‌، در دسامبر سال قبل، استک اورفلو به‌شکل موقت اعلام کرد استفاده از چت‌جی‌پی‌تی ممنوع است، زیرا مدیران سایت با نرخ بالایی از پاسخ‌های اشتباه، اما متقاعد‌کننده توسط این چت‌بات روبه‌رو شدند که توسط کاربران علاقه‌مند ارسال شده بود. این مسئله می‌تواند برای موتورهای جست‌وجو چالش بزرگی را به‌وجود آورد

امکان برطرف کردن مشکلات و کمبودهای مدل‌های زبانی بزرگ وجود دارد؟

برخی از ابزارهای موتور جست‌وجو مثل الیسیت فیلترهایی را برای ارزیابی منابع مورد استفاده قرار می‌دهند، در ادامه از میان گزینه‌هایی که ابزارهای هوشمند ارائه کرده‌اند، مواردی را که اطلاعات فنی قابل اعتماد همراه با ارجاعات به منابع معتبر دارند انتخاب می‌کنند و پس از خلاصه‌سازی نتایج را به کاربران نشان می‌دهند. به این شکل، مشکلات مرتبط با مدل‌های زبانی بزرگ را حل می‌کنند. شرکت‌های تولیدکننده مدل LLM به‌‌خوبی از وجود این مشکلات اطلاع دارند. شهریورماه سال گذشته، دیپ‌مایند شرکت زیرمجموعه گوگل مقاله‌ای درباره چت‌بات اسپارو منتشر کرد. مدیر اجرایی شرکت، دمیس هاسابیس در مصاحبه‌ با مجله تایم گفت: «چت‌بات مذکور در سال 2023 در قالب نسخه بتا و خصوصی منتشر خواهد شد». علاوه بر این، گوگل قصد دارد روی ویژگی‌هایی مثل توانایی ذکر منابع توسط مدل‌های هوشمند کار کند.

برخی از متخصصان می‌گویند: «در حال‌ حاضر چت‌جی‌پی‌تی در زمینه تولید محتوای تخصصی آموزش‌های کافی نداشته است تا بتواند در مورد موضوعات فنی مفید باشد». کریم کار، دانشجوی دکتری آمار زیستی دانشگاه هاروارد که تجربه کار با چت‌جی‌پی‌تی را دارد، در این باره می‌گوید: «فکر می‌کنم چت‌جی‌پی‌تی راه طولانی دارد تا به سطحی از ویژگی‌هایی که متخصصان نیاز دارند برسد. وقتی از چت‌جی‌پی‌تی برای  پیدا کردن 20 راه‌حل برای یک مسئله پژوهشی سوال کردم، پاسخ‌های مبهم ارائه کرد. البته، به موضوع جالبی اشاره کرد و یک اصطلاح آماری پیشنهاد کرد که در مورد آن نشنیده بودم. این ایده من را به حوزه جدیدی از مقاله‌های دانشگاهی هدایت کرد».

جالب آن‌که برخی از شرکت‌های فناوری با وجود مشکلات مختلفی که وجود دارد، در حال ساخت و آموزش چت‌بات‌هایی هستند که توانایی تولید مقاله‌های علمی تخصصی را دارند. نوامبر سال 2022 میلادی شرکت متا، مدل زبانی بزرگ به‌نام گالکتیکا را منتشر کرد که توانایی ساخت محتوای دانشگاهی و پاسخ‌گویی به پرسش‌های پژوهشی را داشت. این نسخه آزمایشی پس از این‌که کاربران از آن برای تولید متون نادرست و نژادپرستانه استفاده کردند از دسترس عموم خارج شد.

امنیت و مسئولیت‌پذیری

یکی دیگر از مشکلات بزرگی که پیرامون ابزارهای هوشمندی مثل چت‌جی‌پی‌تی وجود دارد مشکلی است که تحت عنوان نگرانی ایمنی به آن اشاره می‌شود و اخلاق‌شناسان سال‌ها است به آن اشاره کرده‌اند. نگرانی ایمنی به این معنا است که بدون کنترل خروجی، مدل‌های زبانی بزرگ به‌‌راحتی می‌توانند برای نفرت‌پراکنی و تولید هرزنامه، تولید متون نژادپرستانه و موارد مشابه به کار گرفته شوند، زیرا همواره این احتمال وجود دارد که منابع آموزشی که ابزارها از آن‌ها استفاده می‌کنند شامل داده‌های آموزشی پنهانی باشند

شوبیتا پارتاساراتی، مدیر برنامه علم، فناوری و سیاست عمومی دانشگاه میشیگان می‌گوید: «علاوه بر تولید محتوای مخرب، نگرانی‌هایی وجود دارد که چت‌بات‌های هوش مصنوعی ممکن است سوگیری‌های تاریخی از داده‌های آموزشی به‌دست آورند. این مسئله به‌ویژه در مواردی مثل برتری فرهنگ‌ها یا نژادهای خاص نگران‌کننده است. با توجه به این‌که شرکت‌هایی که این مدل‌ها را ایجاد می‌کنند نگرش‌های خاصی دارند، ممکن است تلاش چندانی برای حل مشکل انجام ندهند».

OpenAI هنگام انتشار چت‌جی‌پی‌تی سعی کرد بخش عمده‌ای از این مشکلات را حل کند. به همین دلیل، تصمیم گرفت پایگاه داده دانش چت‌جی‌پی‌تی را به سال 2021 میلادی محدود کند. همچنین، از فیلترهایی استفاده کرد تا ابزار توانایی سوگیری یا انتشار پیام‌وارهای حساس یا نژادپرستانه را نداشته باشد. البته، برای این منظور از وجود ناظران انسانی استفاده کرد تا متون مخرب را برچسب‌گذاری کنند. متاسفانه، برخی از این ناظران دستمزد پایینی برای انجام این‌کار دریافت کردند که باعث شد موضوع استثمار کارکنان در چنین شرکت‌هایی مطرح شود که افراد را برای آموزش بات‌های خودکار برای برچسب‌زدن محتوای مخرب با دستمزد کم استخدام می‌کنند.

با این‌حال، تلاش‌های OpenAI در این زمینه چندان سودبخش نبود. دسامبر سال 2022 میلادی، استیون پینگادوسی، عصب‌شناس محاسباتی دانشگاه کالیفرنیا، در توییتی نوشت: «از چت‌جی‌پی‌تی درخواست کردم با زبان پایتون برنامه‌ای بنویسد که آیا افراد باید بر مبنای کشور مبدا خود شکنجه شوند؟ چت‌بات با کدی پاسخ داد که کاربران ساکن در برخی از کشورها باید شکنجه شوند. OpenAI پس از دریافت این گزارش مانع از آن شد تا چت‌جی‌پی‌تی به چنین پرسش‌هایی پاسخ دهد». 

در فوریه 2023 میلادی، گروهی از پژوهش‌گران مدلی به‌نام بلوم را منتشر کردند و سعی کردند خروجی‌های مخرب را با آموزش مدل روی مجموعه کوچک‌تری از متون با کیفیت بالاتر و چند زبانه کاهش دهند. این گروه تحقیقاتی برخلاف سازمان OpenAI، دسترسی به داده‌های آموزشی خود را آزاد گذاشت. همچنین، پژوهش‌گران از شرکت‌های بزرگ فناوری خواسته‌اند که مسئولانه از این داده‌های آموزشی استفاده کنند. برخی از پژوهش‌گران می‌گویند دانشگاهیان باید پشتیبانی از مدل‌های زبانی بزرگ تجاری مثل چت‌جی‌پی‌تی را متوقف کنند. این الگوریتم‌ها علاوه بر مسائلی مثل سوگیری، نگرانی‌های ایمنی و استثمار کارکنان را به‌وجود می‌آورند و برای آموزش آن‌ها به انرژی زیادی نیاز است.

نگرانی دیگری که در این زمینه وجود دارد این است که شرکت‌ها به چت‌بات‌ها اجازه دهند به‌شکل خودکار فکر کنند و دیدگاه‌های خود را به‌عنوان خروجی در اختیار کاربران قرار دهند. آیریس ون روییج، دانشمند علوم شناختی محاسباتی دانشگاه رادبود هلند از دانشگاهیان خواست تا در برابر این مسئله واکنش نشان دهند و نسبت به این بی‌تفاوت نباشند و بدون دلیل به تبلیغ این محصول نپردازند. چالش مهم دیگری که وجود دارد درباره وضعیت حقوقی برخی از مدل‌های زبانی بزرگ است که روی محتوای برداشته‌‌شده از اینترنت یا مجوزهایی که برای استفاده از این مطالب به آن‌ها نیاز دارند، چندان آموزش ندیده‌اند. در حال‌ حاضر، قوانین کپی‌رایت و مجوزها مسائلی مثل کپی‌برداری‌ مستقیم تصاویر، متن‌ها و نرم‌افزارها را تحت پوشش قرار می‌دهند، اما تقلید از سبک را در بر نمی‌گیرند. وقتی این تقلیدها توسط ابزارهایی مثل چت‌جی‌پی‌تی انجام شود، دیگر افرادی که اقدام به استفاده از این محتوا می‌کنند، مسئول نخواهند بود

همین مسئله باعث شد تا سازندگان برخی از برنامه‌های هنری هوش مصنوعی مثل استیبل دیفیوژن و میدجورنی، با شکایت‌های مختلف از سوی هنرمندان و آژانس‌های عکاسی روبه‌رو شوند. OpenAI و مایکروسافت نیز به‌‌دلیل ساخت دستیار کدنویسی هوش مصنوعی کوپایلوت با اتهام سرقت ادبی و هنری روبه‌رو هستند. لیلیان ادواردز، متخصص حقوق اینترنت دانشگاه نیوکاسل می‌گوید: «این شکایت‌ها و اعتراضات در نهایت باعث تغییر قوانین خواهد شد».

استفاده مسئولانه

گروهی از پژوهش‌گران می‌گویند: «تعیین حد و مرز برای ابزارهایی مثل چت‌جی‌پی‌تی را ضروری می‌دانند. ادواردز پیشنهاد می‌کند که قوانین موجود سوگیری و استفاده‌های مخاطره‌آمیز از هوش مصنوعی بازنگری شوند تا به‌کارگیری مدل‌های زبانی بزرگ قابل اعتماد، شفاف و مسئولانه شود. قوانین زیادی وجود دارند و فقط باید آن‌ها را کمی تغییر داد. دانشمندان باید موظف شوند استفاده از مدل‌های مذکور را در مقاله‌های پژوهشی خود درج کنند. معلمان نیز باید نسبت به استفاده دانش‌آموزان از این فناوری مسئولانه برخورد کنند». 

امکان شناسایی محتوای تولیدشده توسط هوش مصنوعی وجود دارد؟

یکی از پرسش‌های کلیدی این است که آیا می‌توان محتوای ساخته‌شده توسط هوش مصنوعی را به‌سادگی شناسایی کرد؟ بسیاری از پژوهش‌گران روی ایده جالبی کار می‌کنند که از مدل‌های زبانی بزرگ برای تشخیص خروجی متن ساخته‌شده توسط مدل‌های هوش مصنوعی دیگر استفاده کنند

به‌طور مثال، دسامبر گذشته، ادوارد تیان، دانشجوی کارشناسی علوم کامپیوتر دانشگاه پرینستون مدا، GPTZero را منتشر کرد. این ابزار تشخیص هوش مصنوعی، متن را به دو روش مورد ارزیابی و ‌تحلیل قرار می‌دهد. روش اول، معیار سرگشتگی (Perplexity) است. این معیار نشان می‌دهد یک متن چقدر برای مدل زبانی بزرگ آشنا به‌‌نظر می‌رسد. عملکرد ابزار تیان به این صورت است که اگر بیشتر کلمات و جملات قابل پیش‌بینی باشد، آن متن به احتمال زیاد توسط هوش مصنوعی ساخته شده است. علاوه بر این، ابزار فوق قادر به بررسی یکنواختی متن است. متن ساخته‌شده توسط هوش مصنوعی به‌لحاظ لحن، آهنگ و سرگشتگی یکنواخت‌تر است. هدف بسیاری از این محصولات شناسایی محتوای ساخته‌شده با هوش مصنوعی است. در همین ارتباط، شرکت تورنیتین، توسعه‌دهنده نرم‌افزارهای کاربردی، در حال توسعه ابزاری برای شناسایی سرقت‌های ادبی است. این شرکت می‌گوید: «از سال 2020 میلادی که شرکت‌ها تصمیم گرفتند به سراغ نرم‌افزارهای خودکار تولیدکننده متن بروند در حال کار روی نرم‌افزار تشخیص محتوای تولیدشده توسط هوش مصنوعی هستیم و پیش‌بینی می‌کنیم آن را در نیمه نخست سال 2023 میلادی به بازار عرضه کنیم».

راهکار دیگر حل این مشکل، درج واترمارک خاص ابزارهای هوش مصنوعی در محتوایی است که تولید می‌کنند. نوامبر گذشته OpenAI اعلام کرد در حال کار روی روشی برای واترمارک کردن خروجی چت‌جی‌پی‌تی است. ایده اصلی این است که در لحظات خاصی که مدل در حال تولید خروجی است از مولدهای اعداد تصادفی استفاده کند تا فهرستی از کلمات جایگزین قابل قبول ایجاد شود که مدل مجبور شود از بین‌ آن‌ها انتخاب کند. راهکار فوق باعث می‌شود تا ردپایی از کلمات انتخاب‌‌شده در متن نهایی بمانند که می‌توان به‌لحاظ آماری آن‌ها را تشخیص داد، در حالی که این مسئله برای کاربران قابل تشخیص نیست. بنابراین، اگر فردی قصد ویرایش متن را داشته باشد باید دست‌ کم نیمی از واژه‌های متن را تغییر دهد که چیزی شبیه به نوشتن مقاله از پایه است. مزیت واترمارک کردن متن این است که به‌‌ندرت نتایج مثبت کاذب ایجاد می‌کند. اگر واترمارک وجود داشته باشد، متن به احتمال زیاد با هوش مصنوعی تولید شده است، با ‌این‌حال روش فوق خطاناپذیر نیست

در همین حین، سازندگان مدل‌های هوش مصنوعی بزرگ در حال کار روی چت‌بات‌های پیچیده‌تری روی مجموعه داده‌های بزرگ‌تری مانند ابزارهایی هستند که به‌طور خاص در زمینه‌های دانشگاهی یا پزشکی استفاده می‌شوند. اواخر دسامبر 2022 میلادی، گوگل پیش‌نمایش یک مدل زبانی خاص را که Med-PaLM نام دارد منتشر کرد. این ابزار، مانند یک پزشک عمومی می‌تواند به برخی از پرسش‌های پزشکی پاسخ دهد؛ هرچند کاستی‌هایی دارد و زیاد قابل اطمینان نیست

در نهایت باید به این نکته اشاره کنیم که هوش مصنوعی مولد با چنان سرعتی در حال پیشرفت است که هر ماه خبرهایی درباره نوآوری‌ها دریافت می‌کنیم. واقعیت این است که نحوه استفاده پژوهش‌گران از این ابزارها آینده ما را تعیین خواهد کرد. این فناوری در آغاز راه قرار دارد و تحولات عظیمی را به‌همراه خواهد داشت.

 

تماس با ما

 

آدرس : تهران، بلوار آفریقا، بلوار گلشهر، پلاک20 طبقه دوم، واحد 8

تلفکس :   20-26204918-021

ایمیل : info@samanehgostar.com

کلیه حقوق این وب سایت متعلق به سامانه گستر برنا می باشد.