گوگل اصول هوش مصنوعی خود را تغییر داده و تعهدات قبلی خود در مورد عدم استفاده از این فناوری در سلاحها و ابزارهای نظارتی را حذف کرده است. این تغییر پس از آن صورت گرفت که گوگل با انتقادات زیادی در مورد همکاریهای نظامی خود روبرو شد.
تغییرات گوگل در اصول هوش مصنوعی؛ نگرانیها افزایش یافت
گوگل، از زمان معرفی اولین اصول هوش مصنوعی خود در سال ۲۰۱۸، تغییرات چشمگیری در این اصول ایجاد کرده است. این شرکت، سند اصول خود را ویرایش کرده و برخی از تعهدات قبلی خود را حذف کرده است.
یکی از تغییرات اصلی، حذف تعهد گوگل مبنی بر عدم استفاده از هوش مصنوعی در سلاحها و فناوریهای نظارتی است. در سند قبلی، این موضوع در بخش "برنامههایی که ما دنبال نمیکنیم" ذکر شده بود، اما در نسخه جدید سند، این بخش حذف شده است.
به جای آن، بخش جدیدی با عنوان "توسعه و استقرار مسئولانه" اضافه شده است که در آن گوگل بیان میکند که "نظارت انسانی مناسب، بررسی دقیق و مکانیزمهای بازخوردی را برای همسویی با اهداف کاربر، مسئولیتهای اجتماعی و اصول پذیرفته شده حقوق بینالملل و حقوق بشر اجرا خواهد کرد."
این تعهدات جدید، بسیار کلیتر از تعهدات قبلی گوگل هستند. برای مثال، در مورد سلاحها، گوگل قبلاً گفته بود که هوش مصنوعی را برای استفاده در "سلاحها یا سایر فناوریهایی که هدف یا پیادهسازی آنها سبب ایجاد یا تسهیل صدمه مستقیم به افراد میشود" طراحی نخواهد کرد. در مورد ابزارهای نظارتی هوش مصنوعی نیز، گوگل اظهار داشته بود که فناوریهایی را توسعه نخواهد داد که "هنجارهای پذیرفته شده بینالمللی" را نقض کند.
دمیس حسابیس، مدیرعامل دیپمایند، و جیمز مانیکا، معاون ارشد تحقیقات، لابراتوارها، فناوری و جامعه در گوگل، میگویند که ظهور هوش مصنوعی به عنوان یک "فناوری همهمنظوره" نیاز به تغییر سیاست داشته است.
آنها در بیانیهای اعلام کردند: "ما معتقدیم دموکراسی باید در توسعه هوش مصنوعی پیشرو باشد و ارزشهای اصلی مانند آزادی، برابری و احترام به حقوق بشر را شامل شوند و ما معتقدیم که شرکتها، دولتها و سازمانهایی که این ارزشها را در نظر دارند، باید با یکدیگر همکاری کنند تا هوش مصنوعی ایجاد کنند که از مردم محافظت کند، رشد جهانی را ارتقا دهد و از امنیت ملی حمایت کند. با هدایت اصول هوش مصنوعی، ما به تمرکز بر تحقیقات و کاربردهای هوش مصنوعی که با مأموریت، تمرکز علمی و حوزههای تخصصی ما همسو هستند، ادامه خواهیم داد و با اصول پذیرفته شده حقوق بینالملل و حقوق بشر سازگار میمانیم و همیشه ارزیابی مینماییم که مزایا بر خطرات احتمالی بیشتر است یا خیر."
گوگل برای اولین بار اصول هوش مصنوعی خود را در سال ۲۰۱۸، پس از پروژه ماون منتشر کرد. پروژه ماون، یک قرارداد جنجالی دولتی بود که اگر گوگل تصمیم به تمدید آن میگرفت، این شرکت نرمافزار هوش مصنوعی را برای تحلیل و بررسی فیلم پهپادها در اختیار وزارت دفاع قرار میداد. دهها کارمند گوگل در اعتراض به این قرارداد، شرکت را ترک کردند و هزاران نفر دیگر در مخالفت با آن، طوماری امضا کردند. زمانی که گوگل در نهایت دستورالعملهای جدید خود را منتشر کرد، ساندر پیچای، مدیرعامل شرکت، به کارکنان اظهار داشت که امیدوار است در طول زمان مقاومت کنند.
با این حال، تا سال ۲۰۲۱، گوگل بار دیگر شروع به پیگیری قراردادهای نظامی کرد.
این تغییرات در اصول هوش مصنوعی گوگل، نگرانیهایی را در مورد آینده استفاده از این فناوری توسط این شرکت ایجاد کرده است.
منبع: لینك بگیر دات كام