سایت خبری
famaserver
  • صفحه اصلی
  • اخبار ورزشی
  • بین الملل
  • اقتصادی
  • اخبار استانها
  • اخبار روز
  • سیاسی
  • علمی و فناوری
سایت خبری

سرتیتر خبرها

یک رسانه انگلیسی: نظامیان اسرائیلی از نتانیاهو روی‌گردانند

یک رسانه انگلیسی: نظامیان اسرائیلی از نتانیاهو روی‌گردانند

24 دقیقه پیش
چراغ سبزی که ترامپ به پوتین نشان داد

چراغ سبزی که ترامپ به پوتین نشان داد

24 دقیقه پیش
حماس مواضع خود برای دستیابی به آتش‌بس را توصیف کرد

حماس مواضع خود برای دستیابی به آتش‌بس را توصیف کرد

24 دقیقه پیش
رایزنی عباس عراقچی با وزیرخارجه طالبان

رایزنی عباس عراقچی با وزیرخارجه طالبان

25 دقیقه پیش
تشکیل یک شبکه جاسوسی از سوی اسرائیل در شمال غزه

تشکیل یک شبکه جاسوسی از سوی اسرائیل در شمال غزه

25 دقیقه پیش
کاردار سفارت فرانسه در اراضی اشغالی احضار شد

کاردار سفارت فرانسه در اراضی اشغالی احضار شد

25 دقیقه پیش
بقائی: مردم ایران جنایات اسرائیل را بخشی از «کارهای کثیف» آلمان می‌دانند

بقائی: مردم ایران جنایات اسرائیل را بخشی از «کارهای کثیف» آلمان می‌دانند

26 دقیقه پیش
جدیدترین موضع گیری بارزانی درباره ایران

جدیدترین موضع گیری بارزانی درباره ایران

26 دقیقه پیش
ژنرال صهیونیست: دنیا ما را درنده‌ای گرسنه‌کش می‌بیند/ تاکید بر توقف جنگ

ژنرال صهیونیست: دنیا ما را درنده‌ای گرسنه‌کش می‌بیند/ تاکید بر توقف جنگ

26 دقیقه پیش
ترامپ: به ایران اجازه غنی‌سازی اورانیوم نخواهیم داد

ترامپ: به ایران اجازه غنی‌سازی اورانیوم نخواهیم داد

27 دقیقه پیش

Home » مراقب باشید کرم‌های هوش مصنوعی، اطلاعات شما را ندزدند!

مراقب باشید کرم‌های هوش مصنوعی، اطلاعات شما را ندزدند!

زمان انتشار: 21 آوریل 2024 ساعت 5:03

دسته بندی: علمی و فناوری

شناسه خبر: 431962

زمان مطالعه: 16 دقیقه

مراقب باشید کرم‌های هوش مصنوعی، اطلاعات شما را ندزدند!

مراقب باشید کرم‌های هوش مصنوعی، اطلاعات شما را ندزدند!

به گزارش یولن و به نقل از زومیت، دنیای امروز با حضور فناوری‌های مبتنی بر هوش مصنوعی مانند چت‌جی‌پی‌تی یا جمنای گوگل، رنگ و بوی دیگری به خود گرفته و انجام بسیاری از کارها از تحقیق گرفته تا انجام تکالیف مدرسه و کدنویسی آسان‌تر شده است؛ اما این همهٔ ماجرا نیست و تعدادی از محققان دنیای فناوری معتقدند با آزادی عمل سیستم‌های هوش مصنوعی، امنیت سایبری دچار چالش و احتمالاً دنیای وب با تهدیدهای جدیدی مواجه می‌شود.

گروهی از محققان برای نشان دادن باگ امنیتی سیستم‌های هوش مصنوعی، آسیب‌پذیری جدیدی به نام کرم‌های هوش مصنوعی (AI Worms) را توسعه داده‌اند که به‌راحتی می‌توانند بین سیستم‌های مختلف پخش شوند، اطلاعات را به سرقت ببرند یا حتی بدافزارهایی را روی سیستم کاربران نصب کنند. این جدیدترین تهدید امنیت سایبری محسوب می‌شود که تاکنون شبیه به آن وجود نداشته است و می‌تواند به‌راحتی امنیت ما را در اینترنت به خطر بیندازد.

هوش مصنوعی هر روز ترسناک‌تر از دیروز

در کنار قابلیت‌های شگفت‌انگیز چت‌بات‌ها و مولدهای تصویر و ویدیو مثل میدجرنی و Sora که زندگی بسیاری از ما را ساده‌تر کرده‌اند، نگرانی‌ها در مورد تهدیدات هوش مصنوعی هر روز بیشتر می‌شود و زنگ خطر این فناوری در بسیاری از جنبه‌های زندگی ما به صدا درآمده؛ حالا هم امنیت سایبری کاربران فناوری‌های هوش مصنوعی نشانه گرفته شده است. بن ناسی، محقق Cornell Tech به همراه استاو کوهن و روی بیتون با استفاده از هوش مصنوعی، کرمی را با الهام گرفتن از کرم کامپیوتری موریس در سال ۱۹۸۸ توسعه داده‌اند که موریس ۲ (Morris II) نام دارد.

این محققان در گفت‌وگویی با وایرد نشان دادند که مووریس ۲ چگونه می‌تواند به دستیار ایمیل هوش مصنوعی مولد حمله کند، اطلاعات را به سرقت ببرد و ایمیل‌های اسپم را با دور زدن تدابیر امنیتی هوش مصنوعی چت جی‌پی‌تی یا گوگل جمنای، به کاربران ارسال کند.

البته این تحقیق فعلاً در محیط آزمایشگاهی انجام شده و تأثیرات آن به‌صورت عمومی روی دستیارهای هوش مصنوعی بررسی نشده است. اگرچه هنوز کرم‌های هوش مصنوعی مولد در دنیای واقعی مشاهده نشده‌اند، محققان بر این باورند که آن‌ها خطر امنیتی فاجعه‌باری هستند که تا دیر نشده استارت‌آپ‌ها، توسعه‌دهندگان و شرکت‌های فناوری باید راه‌های مقابله با آن را یاد بگیرند.

کرم‌های هوش مصنوعی چگونه کار می‌کنند؟

بیشتر سیستم‌های هوش مصنوعی مولد براساس دستورالعمل‌های متنی می‌توانند به سؤالات پاسخ دهند یا تصاویر مختلفی را بسازند. با این حال، این دستورات متنی می‌توانند علیه خود چت‌بات‌ها مورد استفاده قرار گیرند و به‌کمک یک سری دستورعمل‌های محرمانه و با نادیده‌گرفتن سیستم قوانین ایمنی خود، محتوای خشونت‌آمیز یا نفرت‌انگیز منتشر کند. به عنوان مثال، ممکن است هکری متنی را در صفحهٔ از وب پنهان کند که به مدل زبانی دستور می‌دهد در نقش کلاه‌بردار ظاهر شده و اطلاعات بانکی شما را درخواست کند.

محققان برای ساخت کرم هوش مصنوعی مولد، از دستورالعملی به نام «پرامپت خودتکرارشونده خصمانه» (adversarial self-replicating prompt) استفاده کردند. به گفتهٔ آن‌ها، این دستورالعمل باعث می‌شود مدل هوش مصنوعی مولد در پاسخ به متن دریافتی، دستورالعمل دیگری را تولید کند. روش یادشده از این نظر شباهت زیادی به حملات رایج «تزریق به پایگاه داده» (SQL Injection) و «سرریز بافر» (Buffer Overflow) دارد که در آن، مهاجم یک سری عبارت‌های اضافی را به درخواست کاربر اضافه می‌کند تا داده‌های ورودی را دستکاری کند.

محققان برای نشان دادن نحوهٔ عملکرد کرم هوش مصنوعی، سیستم ایمیلی‌ای ایجاد کردند که می‌تواند با استفاده از هوش مصنوعی مولد، پیام‌هایی را ارسال و دریافت کند. آن‌ها این سیستم را به چت‌جی‌پی‌تی، جمنای و مدل زبانی متن‌باز LLaVA متصل کردند تا بتوانند از فناوری‌های مبتنی بر هوش مصنوعی سوءاستفاده کنند. محققان برای این کار از دو روش استفاده کردند که در ادامه آن‌ها را توضیح می‌دهیم.

روش اول: استفاده از دستورالعمل خودتکرارشونده متنی

محققان در نقش مهاجم، ایمیلی حاوی «دستورالعمل متنی خودتکرارشونده خصمانه» نوشتند. این دستورالعمل، پایگاه دادهٔ دستیار ایمیل را با استفاده از تولید افزایشی بازیابی (RAG) که روشی برای مدل‌های زبانی بزرگ برای دریافت اطلاعات اضافی خارج از سیستم خود است، آلوده می‌کند.

وقتی ایمیل در پاسخ به درخواست کاربر توسط RAG بازیابی می‌شود و بعد برای تولید پاسخ به GPT-4 یا جمنای پرو ارسال می‌شود، سرویس هوش مصنوعی مولد را «جیلبریک» می‌کند و داده‌ها را از ایمیل‌ها می‌دزدد. پاسخ تولیدشده که حالا حاوی اطلاعات حساس کاربر است، بعداً میزبان‌های جدید را هنگام پاسخ به ایمیل فرستاده‌شده به کاربر جدید آلوده می‌کند و بعد در دیتابیس کاربر ذخیره می‌شود.

روش دوم: جاسازی دستورالعمل خودتکرارشونده در فایل تصویری

در روش دوم، تصویری حاوی دستورالعمل مخرب، دستیار ایمیل را وادار کرد این پیام را به کاربران دیگر بفرستد. با رمزگذاری دستورالعمل خودتکرارشونده در فایل تصویری، هر نوع تصویری که شامل هرزنامه، مطالب آسیب‌زننده یا حتی پروپاگاندا باشد، پس از ارسال ایمیل اولیه می‌تواند به کاربرهای جدید فرستاده شود.

در ویدیویی که برای نمایش این تحقیق ساخته شده بود، سیستم ایمیل را می‌توان دید که یک پیام آلوده را چندین بار فوروارد می‌کند. محققان همچنین می‌گویند این امکان را دارند که داده‌ها را از ایمیل‌ها استخراج کنند. به گفتهٔ ناسی، «داده‌های استخراج‌شده می‌توانند شامل نام، شماره تلفن، شماره کارت اعتباری، کد ملی و هر چیز محرمانهٔ دیگر باشد.»

اگرچه این تحقیق موفق شد برخی از تدابیر امنیتیِ چت‌جی‌پی‌تی و جمنای را دور بزند، پژوهشگران می‌گویند هدف اصلی این کار هشدار در مورد «طراحی ضعیف معماری» در اکوسیستم فناوری‌های مبتنی بر هوش مصنوعی بوده است. با این حال، آن‌ها یافته‌های خود را به OpenAI و گوگل، شرکت‌های سازندهٔ دو چت‌بات یادشده، گزارش داده‌اند.

سخنگوی OpenAI اعلام کرده است که به نظر می‌رسد راهی برای مقابله با سوءاستفاده از این آسیب‌پذیری‌ها پیدا کرده‌اند. به گفتهٔ او، این شرکت در حال تلاش برای «مقاوم‌تر کردن» سیستم‌های خود در برابر آسیب‌پذیری‌ها است و توسعه‌دهندگان باید از روش‌هایی استفاده کنند که مطمئن شوند با ورودی‌های مخرب کار نمی‌کنند. گوگل تاکنون در مورد یافته‌های این تحقیق حرفی نزده، اما به نظر می‌رسد برای گفت‌وگو با پژوهشگران اظهار آمادگی کرده است.

محققان نگران کرم‌های هوش مصنوعی

هرچند عملکرد مخرب این کرم هوش مصنوعی در محیطی کنترل‌شده به نمایش گذاشته شد، برخی از محققان معتقدند خطر کرم‌های هوش مصنوعی مولد در آینده، موضوعی است که باید توسعه‌دهندگان از همین حالا آن را جدی بگیرند. این موضوع به‌خصوص زمانی اهمیت پیدا می‌کند که به برنامه‌های هوش مصنوعی اجازه داده شود به‌جای کاربران اقداماتی را انجام دهند؛ مثلاً ایمیل بفرستند یا قرار ملاقات رزرو کنند.

در تحقیقی دیگر که اخیراً انجام شده است، محققان امنیتی سنگاپور و چین نشان دادند که چطور توانستند در کمتر از پنج دقیقه، می‌توانند یک میلیون سیستم مبتنی بر مدل‌های زبانی بزرگ را در کمتر از پنج دقیقه جیلبریک کنترل کنند.

سحر عبدالنبی، محقق مرکز امنیت اطلاعات CISPA Helmholtz در آلمان که پیشتر دربارهٔ خطر ظهور کرم‌های هوش مصنوعی هشدار داده بود، می‌گوید: وقتی مدل‌های هوش مصنوعی داده‌ها را از منابع خارجی دریافت می‌کنند یا چت‌بات‌های مختلف هوش مصنوعی به‌صورت مستقل کار می‌کنند، احتمال گسترش کرم‌های هوش مصنوعی نیز وجود دارد. عبدالنبی می‌گوید ایدهٔ گسترش حملات تزریق بسیار محتمل است و همه‌چیز به این بستگی دارد که کاربرد مدل‌ها چه باشد. به گفتهٔ او، اگرچه این نوع حمله درحال‌حاضر فقط در محیط آزمایشگاهی شبیه‌سازی شده است، طولی نخواهد کشید تا به دنیای واقعی راه پیدا کند.

جمع‌بندی: از چه زمانی باید نگران کرم‌های هوش مصنوعی باشیم؟

محققان در مقالهٔ خود پیش‌بینی می‌کنند که احتمالاً طی دو تا سه سال آینده، شاهد ظهور کرم‌های هوش مصنوعی مولد در دنیای واقعی خواهیم بود. با وجود این خطر، سازندگان سیستم‌های هوش مصنوعی مولد می‌توانند با استفاده از روش‌های امنیتی سنتی از این کرم‌ها دفاع کنند.

آدام سووندا، محقق تهدیدات سایبری در شرکت امنیت هوش مصنوعی Robust Intelligence در این باره می‌گوید: بخش زیادی از این مشکلات را می‌توان با طراحی و نظارت امنیتی مناسب بر برنامه‌های کاربردی حل کرد. در هیچ کجای برنامهٔ خود نباید به‌طور کامل به خروجی مدل‌های زبان بزرگ اعتماد کنید.

سووندا همچنین بر اهمیت دخیل بودن انسان در این فرایند تأکید می‌کند و می‌گوید اطمینان حاصل کنید که مدل‌های مختلف هوش مصنوعی بدون تأییدیه نمی‌توانند اقداماتی انجام دهند؛ مثلاً نباید به مدل هوش مصنوعی‌ای که ایمیل شما را می‌خواند، اجازه داد ایمیل خودکار ارسال کند. باید یک مرز مشخص در این زمینه وجود داشته باشد. به گفتهٔ او، اگر یک دستورالعمل خاص هزاران بار در سیستم‌های هوش مصنوعی تکرار شود، «سروصدا» ایجاد می‌کند و ممکن است شناسایی‌اش آسان‌تر شود.

در نهایت، ناسی می‌گوید سازندگان دستیارهای هوش مصنوعی باید از چنین خطراتی آگاه باشند. او می‌گوید: «این موضوعی است که باید آن را درک کنند و ببینند آیا برنامه‌های شرکت در توسعهٔ اکوسیستم و کاربردهای هوش مصنوعی از چنین رویکردهایی پیروی می‌کنند یا خیر.»

۵۴۵۴

حتما بخوانید : یک خبر ناامیدکننده از آیفون۱۷ پلاس!

مجله خبری یولن

برچسب ها
هوش مصنوعی
اشتراک گذاری

اخبار مرتبط

  • چه زمانی از دنده خلاص (N) در خودروهای اتوماتیک استفاده کنیم؟
    چه زمانی از دنده خلاص (N) در خودروهای اتوماتیک استفاده کنیم؟ 21 ساعت پیش
  • پایان جهان زودتر از آنچه فکر می‌کنیم فرا می‌رسد
    پایان جهان زودتر از آنچه فکر می‌کنیم فرا می‌رسد 21 ساعت پیش
  • استفاده ۸۵ درصد کاربران از  فیلترشکن نشانه مقاومت جمعی و زیرپوستی علیه تصمیم‌سازی‌های نادرست است / نگاه قیم‌مآبانه به مردم، منشاء بی‌اعتمادی است
    استفاده ۸۵ درصد کاربران از فیلترشکن نشانه مقاومت جمعی و زیرپوستی علیه تصمیم‌سازی‌های نادرست است / نگاه قیم‌مآبانه به مردم، منشاء بی‌اعتمادی است 21 ساعت پیش
  • هیولای اتمی روسیه با موشک‌های مافوق‌صوت در راه دریاست!
    هیولای اتمی روسیه با موشک‌های مافوق‌صوت در راه دریاست! 21 ساعت پیش

دیدگاه ها

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دسته بندی موضوعات

  • آذربایجان شرقی 577
  • آذربایجان غربی 484
  • اجتماعی 6733
  • اخبار استانها 35
  • اخبار بورس 276
  • اخبار تکنولوژی 120
  • اخبار روز 42
  • اخبار ورزشی 9243
  • اردبیل 359
  • اصفهان 603
  • اقتصادی 6001
  • البرز 1631
  • ایلام 246
  • بازار کار 388
  • بوشهر 165
  • بین الملل 17230
  • تبلیغات 18
  • تهران 342
  • چند رسانه ای 0
  • چهارمحال و بختیاری 761
  • خراسان جنوبی 309
  • خراسان رضوی 668
  • خراسان شمالی 166
  • خوزستان 384
  • زنجان 310
  • سبک زندگی 333
  • سلامت 2279
  • سمنان 2082
  • سیاسی 6874
  • سیستان و بلوچستان 5
  • عکس 79
  • علمی و فناوری 4257
  • فارس 404
  • فرهنگ و هنر 5101
  • قزوین 547
  • قم 330
  • کاریکاتور 78
  • کردستان 538
  • کرمان 2091
  • کرمانشاه 478
  • کهگیلویه و بویراحمد 444
  • گلستان 315
  • گیلان 335
  • لرستان 18
  • مازندران 84
  • مرکزی 5
  • هرمزگان 398
  • همدان 603
  • یزد 160
famaserver

جدیدترین مقالات

  • یک رسانه انگلیسی: نظامیان اسرائیلی از نتانیاهو روی‌گردانند
    یک رسانه انگلیسی: نظامیان اسرائیلی از نتانیاهو روی‌گردانند 4 ساعت پیش
  • چراغ سبزی که ترامپ به پوتین نشان داد
    چراغ سبزی که ترامپ به پوتین نشان داد 4 ساعت پیش
  • حماس مواضع خود برای دستیابی به آتش‌بس را توصیف کرد
    حماس مواضع خود برای دستیابی به آتش‌بس را توصیف کرد 4 ساعت پیش
  • رایزنی عباس عراقچی با وزیرخارجه طالبان
    رایزنی عباس عراقچی با وزیرخارجه طالبان 4 ساعت پیش
  • تشکیل یک شبکه جاسوسی از سوی اسرائیل در شمال غزه
    تشکیل یک شبکه جاسوسی از سوی اسرائیل در شمال غزه 4 ساعت پیش

لینکهای پیشنهادی

سرور مجازی | خرید هاست | دانلود نرم افزار

میزبانی در هاست لینوکس فاماسرور