مجوز AI برای قتل صادر شد: چرا قانون جدید کالیفرنیا مرگ کمتر از 50 نفر را “فاجعه” نمیداند؟

قانون جدید هوش مصنوعی کالیفرنیا دقیقاً همان چیزی را به شرکتهای بزرگ فناوری داد که میخواستند.
پس از شکست لایحه S.B. 1047، قانون جدید افشای هوش مصنوعی، الزام “کلید خاموش اضطراری” را حذف کرد.
روز دوشنبه، گوین نیوسام فرماندار کالیفرنیا، قانون “شفافیت در هوش مصنوعی پیشرفته” را امضا کرد. این قانون شرکتهای فعال در حوزه هوش مصنوعی را ملزم میکند که شیوههای ایمنی خود را افشا کنند، اما الزام قانونی برای انجام آزمایشهای ایمنی واقعی ندارد. طبق این قانون، شرکتهایی که درآمد سالانهای حداقل 500 میلیون دلار دارند باید پروتکلهای ایمنی خود را در وبسایتشان منتشر کرده و حوادث احتمالی را به مقامات ایالتی گزارش دهند. با این حال، این قانون فاقد قدرت اجرایی و الزامآورِ لایحهای است که نیوسام سال گذشته پس از لابی گسترده شرکتهای فناوری، وتو کرده بود.
این قانون، با عنوان S.B. 53، جایگزین تلاش پیشین سناتور اسکات وینر برای قانونگذاری در حوزه هوش مصنوعی S.B. 1047 میشود. لایحه قبلی الزام به انجام آزمایشهای ایمنی و داشتن “کلید خاموش اضطراری” برای سامانههای هوش مصنوعی را در نظر داشت. اما در قانون جدید، از شرکتها خواسته شده است که توضیح دهند چگونه “استانداردهای ملی، بینالمللی و بهترین رویههای مورد توافق صنعت” را در توسعهی هوش مصنوعی خود به کار میگیرند، بدون آنکه مشخص کند این استانداردها دقیقاً چه هستند یا نیازی به تأیید مستقل وجود داشته باشد.
نیوسام در بیانیهای گفت: “کالیفرنیا ثابت کرده در حالی که همچنان به رشد صنعت در حال شکوفایی هوش مصنوعی اجازه میدهد، میتواند قوانینی را برای حفاظت از جوامع خود وضع کند.” با این حال، اقدامات حفاظتی واقعی این قانون عمدتاً داوطلبانه و محدود به الزامات پایهی گزارشدهی هستند.
طبق دادههای دولت ایالتی کالیفرنیا، این ایالت میزبان 32 شرکت از 50 شرکت برتر هوش مصنوعی جهان است و بیش از نیمی از سرمایهگذاریهای خطرپذیر جهانی در حوزهی هوش مصنوعی و یادگیری ماشین در سال گذشته به شرکتهای منطقهی خلیج سانفرانسیسکو اختصاص یافته است. بنابراین، هرچند این قانون در سطح ایالت تصویب شده، اما تأثیر آن در سطح ملی و جهانی احساس خواهد شد. چه از نظر ایجاد الگوی قانونگذاری و چه از طریق تأثیرگذاری بر شرکتهایی که سامانههای هوش مصنوعی جهانی تولید میکنند.
شفافیت بهجای آزمایش
در حالی که لایحهی ردشدهی SB 1047 آزمایش ایمنی و کلید خاموش اضطراری را اجباری میکرد، قانون جدید بر افشاگری تمرکز دارد. شرکتها موظفاند “حوادث احتمالی بحرانی ایمنی” را به دفتر خدمات اضطراری کالیفرنیا گزارش دهند و از افشاگرانی که نگرانیهای ایمنی را مطرح میکنند، حمایت کنند.
این قانون خطرات فاجعهبار را به طور محدود تعریف میکند، یعنی حوادثی که ممکن است موجب مرگ بیش از 50 نفر یا خسارتی بالای یک میلیارد دلار شوند، از جمله در اثر کمک به تولید سلاح، اقدامات مجرمانهی خودکار یا از دست دادن کنترل بر سیستم! دادستان کل میتواند برای هر تخلف از الزامات گزارشدهی، جریمهی مدنی تا سقف 1 میلیون دلار تعیین کند.
تغییر جهت از آزمایش اجباری به افشای داوطلبانه پس از یک سال لابیگری شدید رخ داده است. به گزارش نیویورک تایمز، شرکت متا و شرکت سرمایهگذاری “آندریسن هوروویتز” تا سقف 200 میلیون دلار به دو کمیتهی سیاسی بزرگ کمک کردهاند تا از سیاستمدارانی که با صنعت هوش مصنوعی همراه هستند، حمایت کنند. در همین حال، شرکتها برای تصویب قوانین فدرالی تلاش میکنند که بتواند قوانین ایالتی را بیاثر کند.
لایحهی اصلی SB 1047 توسط فعالان حوزهی ایمنی هوش مصنوعی تهیه شده بود که در مورد تهدیدات وجودی هوش مصنوعی هشدار میدادند، هشدارهایی که عمدتاً از سناریوهای فرضی و داستانهای علمیتخیلی الهام گرفته بودند. اما شرکتهای هوش مصنوعی این الزامات را مبهم و سنگین میدانستند. قانون جدید بر اساس توصیههای گروهی از کارشناسانی تهیه شده که نیوسام گرد هم آورد، از جمله “فیفی لی” از دانشگاه استنفورد و قاضی پیشین دیوان عالی کالیفرنیا، “ماریانو-فلورنتینو کویار”.
همانند SB 1047، قانون جدید نیز نهاد “CalCompute” را در چارچوب آژانس عملیات دولتی ایجاد میکند تا زیرساخت محاسباتی عمومی را توسعه دهد. همچنین، اداره فناوری کالیفرنیا موظف است هر سال پیشنهادهایی برای بهروزرسانی قانون ارائه دهد، هرچند اجرای این پیشنهادها نیاز به تصویب قانونگذار ندارد.
سناتور وینر این قانون را ایجاد “نردههای محافظ عقلانی” توصیف کرد، و “جک کلارک” همبنیانگذار Anthropic، آن را “عملگرایانه” خواند. با این حال، به نظر میرسد الزامات شفافیت این قانون تقریباً همان روشهایی را تکرار میکنند که هماکنون در شرکتهای بزرگ هوش مصنوعی رایج است، و از آنجا که هیچ مکانیسم اجرایی یا استاندارد مشخصی وجود ندارد، ممکن است در درازمدت محافظت محدودی در برابر آسیبهای احتمالی هوش مصنوعی فراهم کنند.
منبع: https://arstechnica.com

































