هشدار درباره ریسک سایبری چت بات های هوش مصنوعی
مقامات انگلیس درباره یکپارچه سازی چت بات های هوش مصنوعی در کسب و کارها به سازمان های مختلف هشدار دادند.
به گزارش لینک بگیر دات کام به نقل از رویترز، مقامات انگلیس درباره ی یکپارچه سازی چت بات های هوش مصنوعی در کسب وکارها به سازمان های مختلف هشدار داده و اعلام نمودند مطالعات نشان می دهد این ابزارها را می توان برای انجام کارهای خطرناک فریب داد. مرکز ملی امنیت سایبری انگلیس(NCSC) در یک پست وبلاگی اعلام نمود کارشناسان هنوز نتوانسته اند بطور کامل مشکلات امنیتی احتمالی مربوط به الگوریتم هایی را شناسایی کنند که قادر به ایجاد واکنش های مشابه انسان هستند و به مدلهای زبانی بزرگ (LLM) مشهورند. استفاده از ابزارهای مبتنی بر هوش مصنوعی نه فقط به رشد کاربرد چت بات ها منتج شده بلکه برخی معتقدند علاوه بر آنکه جایگزین جستجوی اینترنتی می شود بخش خدمات مشتریان و تماس ها برای فروش را نیز از آن خود می کند. بر اساس گزارش این مرکز چنین ابزارهایی ممکنست ریسک هایی در بر داشته باشند به ویژه اگر مدلهای زبانی بزرگ به سایر عناصر فرآیندهای تجاری سازمان متصل شده باشند. کارشناسان و پژوهشگران مکررا روش هایی را یافته اند که با ارسال دستورهای ممنوع به چت بات ها یا گمراه کردن آنها و دور زدن اقدامات محافظتی، این ابزارها را از کار می اندازند. به عنوان مثال اگر هکری سوالات مشخصی را در چت بات یک بانک وارد کند، می تواند این سیستم را فریب دهد و تراکنش های بدون مجوز انجام دهد. NCSC در یکی از پست های وبلاگی خود با اشاره به ارائه آزمایشی نرم افزارمی نویسد: سازمان هایی که با بهره گیری از LLM ها سرویسی ایجاد می کنند باید مانند زمانیکه یک محصول یا کدی را در وضعیت بتا ارائه می کنند، مراقب باشند. ممکنست سازمان ها اجازه ندهند محصول آزمایشی از طرف مشتری تراکنشی انجام دهد و بطور کلی آنرا معتبر ندانند. همین اقدامات احتیاطی باید در مدلهای زبانی بزرگ نیز اتخاذ شود. مقامات سرتاسر جهان مشغول دست و پنجه نرم کردن با مدلهای زبانی بزرگ مانند چت جی پی تی شرکت اوپن ای آی هستند. کسب وکارهای مختلف این ابزارها را بطور وسیع در خدمات خود همچون بخش های فروش و خدمات مشتریان به کار می گیرند.
5.0 / 5
530
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد مطلب هشدار درباره ریسک سایبری چت بات های هوش مصنوعی