تکنولوژی

هوش مصنوعی می‌تواند احساسات انسان را درک کند

هوش مصنوعی می‌تواند احساسات انسان را درک کند

کارشناسان و متفکران نامه ای سرگشاده ای امضا کردند که در آن از توسعه غیر مسئولانه فناوری ابراز نگرانی کرده اند.

طبق نامه ای سر گشاده که توسط کارشناسان و متفکران هوش مصنوعی شامل سر استفان فرای امضا شده، اگر این تکنولوژی غیر مسئولانه توسعه داده شود، سیستم های هوش مصنوعی ای که قادر به درک احساسات و آگاهی میشوند میتوانند آسیب ببینند.

در حالی که پیشرفت های سریع نگرانی هایی راجب اینکه این سیستم ها ممکن است قادر به توانایی درک احساسات شوند، ایجاد کرده است، بیش از 100 نفر از کارشناسان 5 اصل را برای هدایت تحقیقات مسئولانه راجب اگاهی هوش مصنوعی تعیین کردند.

این اصول شامل اولویت بندی در تحقیقات مربوط به درک و ارزیابی اگاهی در هوش مصنوعی است و برای مقابله با بدرفتاری و رنج و عذاب احتمالی میباشد.

اصول دیگر شامل: ایجاد محدودیت ها بر توسعه سیستم های هوش مصنوعی اگاه، اتخاذ رویکردی مرحله‌ای برای توسعه چنین سیستم‌هایی، اشتراک یافته ها با عموم مردم و جلوگیری کردن از انتشار بیانیه های بیش از حد مطمئن و گمراه کننده، میباشد.

امضا کنندگان این نامه شامل دانشگاهیانی از جمله سر آنتونی فینکلاشتاین از داشنگاه لندن و حرفه ای های حوزه هوش مصنوعی از شرکت هایی نظیر آمازون و گروه تبلیغاتی WPP می باشند.

این نامه به همراه مقاله ای منتشر شده که این اصول را تشریح میکند. این مقاله استدلال میکند که سیستم های خودآگاه هوش مصنوعی و یا حداقل سیستم هایی که به نظر خوداگاه میرسند میتوانند در آینده ای نزدیک ساخته شوند.

محققان میگویند که “ممکن است تعداد زیادی از سیستم های خوداگاه ساخته شده و باعث عذاب آنها شویم.”، آنها اضافه کردند که اگر سیستم های هوش مصنوعی قدرتمند قادر به تکثیر خود باشند این موضوع میتواند به تولید “تعداد زیادی از موجودات جدید لایق توجه اخلاقی” منجر شود.

این مقاله که توسط پتریک بوتلین از دانشگاه آکسفورد و تئودور لاپاس از دانشگاه اقتصاد و بازرگانی آتن نوشته شده است اضافه میکند که حتی شرکت هایی که سعی بر ساخت سیستم های گاه ندارند نیز نیاز به راهنمایی در صورت “ساخت ناخواسته موجودات اگاه” می باشند.

این مقاله تاکید میکند که عدم قطعیت گسترده و اختلاف نظر هایی برای تعریف اگاهی در سیستم های هوش مصنوعی و آیا اینکه اصلا این موضوع امکان پذیر هست یا خیر وجود دارد اما به طور کلی این یک مشکلی است که “ما نباید نادیده اش بگیریم.”

سوالات دیگری در این مقاله مطرع شده است که میپرسد اگر سیستم هوش مصنوعی به عنوان “موجودی اخلاقی” تلقی شود، موجودی که از لحاظ اخلاقی اهمیت داشته باشد، در آن سناریو این سوال مطرح میشود که آیا نابود کردن هوش مصنوعی قابل قیاس با کشتن حیوانات میباشد یا خیر؟

این مقاله منتشر شده در مجله تحقیقات هوش مصنوعی، همچنین هشدار میدهد که باور غلط مبنی بر اینکه سیستم های هوش مصنوعی هم اکنون اگاه هستند میتواند به تلاش های نادرست برای ارتقا رفاه آنها که باعث به هدر رفت انرژی سیاسی میشود منجر شود.

سال گذشته گروهی از دانشگاهیان پیشکسوت استدلال کردند که “امکان واقع بینانه ای” وجود دارد که تا سال 2035 سیستم های هوش مصنوعی به آگاهی برسند و “از نظر اخلاقی قابل اهمیت” باشند.

در سال 2023، سر دمیس حسابیس، رئیس برنامه هوش مصنوعی گوگل و برنده جایزه نوبل، گفت که سیستم های هوش مصنوعی در حال حاضر “به طور قطع” قابلیت درک احساسات را ندارند اما ممکن است در آینده این چنین نباشد.

او در مصاحبه ای که با شبکه خبری آمریکایی CBS داشت گفت که “فیلسوف ها هنوز بر روی تعریف اگاهی به توافق نرسیده اند اما اگر منظور از اگاهی به نوعی خود آگاه بودن از وجود خود و یا چیز هایی از این قبیل میباشد، من فکر میکنم که امکان این وجود دارد که روزی هوش مصنوعی به آن دست یابد.”

منبع: https://www.theguardian.com

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *