تغییر موضع گوگل در مورد هوش مصنوعی


گوگل اصول هوش مصنوعی خود را تغییر داده و تعهدات قبلی خود در مورد عدم استفاده از این فناوری در سلاح‌ها و ابزارهای نظارتی را حذف کرده است. این تغییر پس از آن صورت گرفت که گوگل با انتقادات زیادی در مورد همکاری‌های نظامی خود روبرو شد.

تغییرات گوگل در اصول هوش مصنوعی؛ نگرانی‌ها افزایش یافت

گوگل، از زمان معرفی اولین اصول هوش مصنوعی خود در سال ۲۰۱۸، تغییرات چشمگیری در این اصول ایجاد کرده است. این شرکت، سند اصول خود را ویرایش کرده و برخی از تعهدات قبلی خود را حذف کرده است.

یکی از تغییرات اصلی، حذف تعهد گوگل مبنی بر عدم استفاده از هوش مصنوعی در سلاح‌ها و فناوری‌های نظارتی است. در سند قبلی، این موضوع در بخش "برنامه‌هایی که ما دنبال نمی‌کنیم" ذکر شده بود، اما در نسخه جدید سند، این بخش حذف شده است.

به جای آن، بخش جدیدی با عنوان "توسعه و استقرار مسئولانه" اضافه شده است که در آن گوگل بیان می‌کند که "نظارت انسانی مناسب، بررسی دقیق و مکانیزم‌های بازخوردی را برای همسویی با اهداف کاربر، مسئولیت‌های اجتماعی و اصول پذیرفته شده حقوق بین‌الملل و حقوق بشر اجرا خواهد کرد."

این تعهدات جدید، بسیار کلی‌تر از تعهدات قبلی گوگل هستند. برای مثال، در مورد سلاح‌ها، گوگل قبلاً گفته بود که هوش مصنوعی را برای استفاده در "سلاح‌ها یا سایر فناوری‌هایی که هدف یا پیاده‌سازی آنها سبب ایجاد یا تسهیل صدمه مستقیم به افراد می‌شود" طراحی نخواهد کرد. در مورد ابزارهای نظارتی هوش مصنوعی نیز، گوگل اظهار داشته بود که فناوری‌هایی را توسعه نخواهد داد که "هنجارهای پذیرفته شده بین‌المللی" را نقض کند.

دمیس حسابیس، مدیرعامل دیپ‌مایند، و جیمز مانیکا، معاون ارشد تحقیقات، لابراتوارها، فناوری و جامعه در گوگل، می‌گویند که ظهور هوش مصنوعی به عنوان یک "فناوری همه‌منظوره" نیاز به تغییر سیاست داشته است.

آنها در بیانیه‌ای اعلام کردند: "ما معتقدیم دموکراسی باید در توسعه هوش مصنوعی پیشرو باشد و ارزش‌های اصلی مانند آزادی، برابری و احترام به حقوق بشر را شامل شوند و ما معتقدیم که شرکت‌ها، دولت‌ها و سازمان‌هایی که این ارزش‌ها را در نظر دارند، باید با یکدیگر همکاری کنند تا هوش مصنوعی ایجاد کنند که از مردم محافظت کند، رشد جهانی را ارتقا دهد و از امنیت ملی حمایت کند. با هدایت اصول هوش مصنوعی، ما به تمرکز بر تحقیقات و کاربردهای هوش مصنوعی که با مأموریت، تمرکز علمی و حوزه‌های تخصصی ما همسو هستند، ادامه خواهیم داد و با اصول پذیرفته شده حقوق بین‌الملل و حقوق بشر سازگار می‌مانیم و همیشه ارزیابی می‌نماییم که مزایا بر خطرات احتمالی بیشتر است یا خیر."

گوگل برای اولین بار اصول هوش مصنوعی خود را در سال ۲۰۱۸، پس از پروژه ماون منتشر کرد. پروژه ماون، یک قرارداد جنجالی دولتی بود که اگر گوگل تصمیم به تمدید آن می‌گرفت، این شرکت نرم‌افزار هوش مصنوعی را برای تحلیل و بررسی فیلم پهپادها در اختیار وزارت دفاع قرار می‌داد. ده‌ها کارمند گوگل در اعتراض به این قرارداد، شرکت را ترک کردند و هزاران نفر دیگر در مخالفت با آن، طوماری امضا کردند. زمانی که گوگل در نهایت دستورالعمل‌های جدید خود را منتشر کرد، ساندر پیچای، مدیرعامل شرکت، به کارکنان اظهار داشت که امیدوار است در طول زمان مقاومت کنند.

با این حال، تا سال ۲۰۲۱، گوگل بار دیگر شروع به پیگیری قراردادهای نظامی کرد.

این تغییرات در اصول هوش مصنوعی گوگل، نگرانی‌هایی را در مورد آینده استفاده از این فناوری توسط این شرکت ایجاد کرده است.

 


 


منبع:

1403/11/17
12:25:06
5.0 / 5
20
تگهای مطلب: گوگل , هوش مصنوعی , امنیت , فناوری
این مطلب را می پسندید؟
(2)
(0)
X
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد مطلب
نظر شما در مورد مطلب
نام:
ایمیل:
نظر:
سوال:
= ۲ بعلاوه ۳