تکنولوژی

مجوز AI برای قتل صادر شد: چرا قانون جدید کالیفرنیا مرگ کمتر از 50 نفر را “فاجعه” نمی‌داند؟

مجوز AI برای قتل صادر شد: چرا قانون جدید کالیفرنیا مرگ کمتر از 50 نفر را "فاجعه" نمی‌داند؟

قانون جدید هوش مصنوعی کالیفرنیا دقیقاً همان چیزی را به شرکت‌های بزرگ فناوری داد که می‌خواستند.

پس از شکست لایحه  S.B. 1047، قانون جدید افشای هوش مصنوعی، الزام “کلید خاموش اضطراری” را حذف کرد.

روز دوشنبه، گوین نیوسام فرماندار کالیفرنیا، قانون “شفافیت در هوش مصنوعی پیشرفته” را امضا کرد. این قانون شرکت‌های فعال در حوزه هوش مصنوعی را ملزم می‌کند که شیوه‌های ایمنی خود را افشا کنند، اما الزام قانونی برای انجام آزمایش‌های ایمنی واقعی ندارد. طبق این قانون، شرکت‌هایی که درآمد سالانه‌ای حداقل 500 میلیون دلار دارند باید پروتکل‌های ایمنی خود را در وب‌سایتشان منتشر کرده و حوادث احتمالی را به مقامات ایالتی گزارش دهند. با این حال، این قانون فاقد قدرت اجرایی و الزام‌آورِ لایحه‌ای است که نیوسام سال گذشته پس از لابی گسترده شرکت‌های فناوری، وتو کرده بود.

این قانون، با عنوان  S.B. 53، جایگزین تلاش پیشین سناتور اسکات وینر برای قانون‌گذاری در حوزه هوش مصنوعی S.B. 1047 می‌شود. لایحه قبلی الزام به انجام آزمایش‌های ایمنی و داشتن “کلید خاموش اضطراری” برای سامانه‌های هوش مصنوعی را در نظر داشت. اما در قانون جدید، از شرکت‌ها خواسته شده است که توضیح دهند چگونه “استانداردهای ملی، بین‌المللی و بهترین رویه‌های مورد توافق صنعت” را در توسعه‌ی هوش مصنوعی خود به کار می‌گیرند، بدون آنکه مشخص کند این استانداردها دقیقاً چه هستند یا نیازی به تأیید مستقل وجود داشته باشد.

نیوسام در بیانیه‌ای گفت: “کالیفرنیا ثابت کرده در حالی که همچنان به رشد صنعت در حال شکوفایی هوش مصنوعی اجازه می‌دهد، می‌تواند قوانینی را برای حفاظت از جوامع خود وضع کند.” با این حال، اقدامات حفاظتی واقعی این قانون عمدتاً داوطلبانه و محدود به الزامات پایه‌ی گزارش‌دهی هستند.

طبق داده‌های دولت ایالتی کالیفرنیا، این ایالت میزبان 32 شرکت از 50 شرکت برتر هوش مصنوعی جهان است و بیش از نیمی از سرمایه‌گذاری‌های خطرپذیر جهانی در حوزه‌ی هوش مصنوعی و یادگیری ماشین در سال گذشته به شرکت‌های منطقه‌ی خلیج سان‌فرانسیسکو اختصاص یافته است. بنابراین، هرچند این قانون در سطح ایالت تصویب شده، اما تأثیر آن در سطح ملی و جهانی احساس خواهد شد. چه از نظر ایجاد الگوی قانون‌گذاری و چه از طریق تأثیرگذاری بر شرکت‌هایی که سامانه‌های هوش مصنوعی جهانی تولید می‌کنند.

شفافیت به‌جای آزمایش

در حالی که لایحه‌ی ردشده‌ی SB 1047 آزمایش ایمنی و کلید خاموش اضطراری را اجباری می‌کرد، قانون جدید بر افشاگری تمرکز دارد. شرکت‌ها موظف‌اند “حوادث احتمالی بحرانی ایمنی” را به دفتر خدمات اضطراری کالیفرنیا گزارش دهند و از افشاگرانی که نگرانی‌های ایمنی را مطرح می‌کنند، حمایت کنند.

این قانون خطرات فاجعه‌بار را به طور محدود تعریف می‌کند، یعنی حوادثی که ممکن است موجب مرگ بیش از 50 نفر یا خسارتی بالای یک میلیارد دلار شوند، از جمله در اثر کمک به تولید سلاح، اقدامات مجرمانه‌ی خودکار یا از دست دادن کنترل بر سیستم! دادستان کل می‌تواند برای هر تخلف از الزامات گزارش‌دهی، جریمه‌ی مدنی تا سقف 1 میلیون دلار تعیین کند.

تغییر جهت از آزمایش اجباری به افشای داوطلبانه پس از یک سال لابی‌گری شدید رخ داده است. به گزارش نیویورک تایمز، شرکت متا و شرکت سرمایه‌گذاری “آندریسن هوروویتز” تا سقف 200 میلیون دلار به دو کمیته‌ی سیاسی بزرگ کمک کرده‌اند تا از سیاستمدارانی که با صنعت هوش مصنوعی همراه هستند، حمایت کنند. در همین حال، شرکت‌ها برای تصویب قوانین فدرالی تلاش می‌کنند که بتواند قوانین ایالتی را بی‌اثر کند.

لایحه‌ی اصلی SB 1047 توسط فعالان حوزه‌ی ایمنی هوش مصنوعی تهیه شده بود که در مورد تهدیدات وجودی هوش مصنوعی هشدار می‌دادند، هشدارهایی که عمدتاً از سناریوهای فرضی و داستان‌های علمی‌تخیلی الهام گرفته بودند. اما شرکت‌های هوش مصنوعی این الزامات را مبهم و سنگین می‌دانستند. قانون جدید بر اساس توصیه‌های گروهی از کارشناسانی تهیه شده که نیوسام گرد هم آورد، از جمله “فی‌فی لی” از دانشگاه استنفورد و قاضی پیشین دیوان عالی کالیفرنیا، “ماریانو-فلورنتینو کویار”.

همانند  SB 1047، قانون جدید نیز نهاد “CalCompute” را در چارچوب آژانس عملیات دولتی ایجاد می‌کند تا زیرساخت محاسباتی عمومی را توسعه دهد. همچنین، اداره فناوری کالیفرنیا موظف است هر سال پیشنهادهایی برای به‌روزرسانی قانون ارائه دهد، هرچند اجرای این پیشنهادها نیاز به تصویب قانون‌گذار ندارد.

سناتور وینر این قانون را ایجاد “نرده‌های محافظ عقلانی” توصیف کرد، و “جک کلارک” هم‌بنیان‌گذار  Anthropic، آن را “عمل‌گرایانه” خواند. با این حال، به نظر می‌رسد الزامات شفافیت این قانون تقریباً همان روش‌هایی را تکرار می‌کنند که هم‌اکنون در شرکت‌های بزرگ هوش مصنوعی رایج است، و از آنجا که هیچ مکانیسم اجرایی یا استاندارد مشخصی وجود ندارد، ممکن است در درازمدت محافظت محدودی در برابر آسیب‌های احتمالی هوش مصنوعی فراهم کنند.

منبع: https://arstechnica.com

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *