امنیت غیرعادی GhostGPT، یک ربات چت هوش مصنوعی بدون سانسور که برای جرایم سایبری ساخته شده است را کشف می کند. بیاموزید که چگونه توانایی‌های مجرمان سایبری را افزایش می‌دهد، اجرای فعالیت‌های مخرب را آسان‌تر می‌کند و چالش‌های جدی برای کارشناسان امنیت سایبری ایجاد می‌کند.
هوش مصنوعی (AI) صنایع بی شماری را متحول کرده است، اما پتانسیل سوء استفاده از آن غیرقابل انکار است. در حالی که مدل‌های هوش مصنوعی مانند ChatGPT در زمینه‌های مختلف بسیار نویدبخش بوده‌اند، قدرت آنها می‌تواند به راحتی توسط عوامل تهدید از طریق چت‌ربات‌های مخرب هوش مصنوعی مانند GhostGPT مورد سوء استفاده قرار گیرد.

در اواخر سال 2024، ارائه‌دهنده راه‌حل‌های امنیتی ایمیل مبتنی بر هوش مصنوعی، «Abnormal Security» این ربات چت هوش مصنوعی جدید را که به‌طور خاص برای فعالیت‌های مجرمانه سایبری طراحی شده بود، کشف کرد. با نام GhostGPT، این ابزار مخرب هوش مصنوعی، که به راحتی از طریق پلتفرم هایی مانند تلگرام در دسترس است، مجرمان سایبری را با قابلیت های بی سابقه ای، از ساخت ایمیل های فیشینگ پیچیده تا توسعه بدافزارهای پیچیده، توانمند می کند.

برخلاف مدل‌های سنتی هوش مصنوعی که توسط دستورالعمل‌های اخلاقی و اقدامات ایمنی محدود شده‌اند، GhostGPT بدون چنین محدودیت‌هایی عمل می‌کند. این دسترسی نامحدود به قابلیت‌های قدرتمند هوش مصنوعی به مجرمان سایبری اجازه می‌دهد تا محتوای مخرب مانند ایمیل‌های فیشینگ پیچیده و کدهای مخرب را با سرعت و سهولت بی‌سابقه تولید کنند.

با توجه به تجزیه و تحلیل غیر طبیعی امنیت، GhostGPT احتمالا با استفاده از یک بسته بندی برای اتصال به نسخه جیلبریک شده ChatGPT یا یک LLM منبع باز طراحی شده است، که حفاظت های اخلاقی را حذف می کند. این به GhostGPT اجازه می‌دهد تا پاسخ‌های مستقیم و بدون فیلتر به پرسش‌های حساس یا مضری که سیستم‌های هوش مصنوعی سنتی مسدود یا پرچم‌گذاری می‌کنند، ارائه دهد.

این ابزار به طور قابل توجهی مانع ورود جرایم سایبری را کاهش می دهد. دیگر نیازی به مهارت‌های تخصصی یا دانش فنی گسترده نیست، حتی بازیگران با تجربه کمتر می‌توانند از قدرت هوش مصنوعی برای فعالیت‌های مخرب استفاده کنند و حملات پیچیده‌تر و تاثیرگذارتری را با کارایی بیشتر انجام دهند.

علاوه بر این، GhostGPT ناشناس بودن کاربر را در اولویت قرار می دهد و ادعا می کند که فعالیت کاربر ثبت نمی شود. این ویژگی برای مجرمان سایبری که به دنبال پنهان کردن فعالیت های غیرقانونی خود و فرار از شناسایی هستند، جذاب است.

GhostGPT برای طیف وسیعی از فعالیت‌های مخرب، از جمله کدنویسی، ایجاد بدافزار و توسعه بهره‌برداری به بازار عرضه شده است. همچنین می‌توان از آن برای نوشتن ایمیل‌های قانع‌کننده برای کلاهبرداری‌های مرتبط با ایمیل تجاری ( BEC) استفاده کرد که آن را به ابزاری مناسب برای ارتکاب جرایم سایبری تبدیل می‌کند .

دسترسی آسان GhostGPT در تلگرام آن را برای مجرمان سایبری بسیار راحت کرده است. با یک اشتراک ساده، آنها می توانند بلافاصله بدون نیاز به تنظیمات پیچیده یا تخصص فنی، استفاده از ابزار را شروع کنند.

محققان امنیت غیرعادی قابلیت‌های GhostGPT را با ایجاد یک الگوی ایمیل فیشینگ Docusign متقاعدکننده آزمایش کردند . چت بات توانایی خود را در فریب قربانیان احتمالی نشان داد و آن را به ابزاری قدرتمند برای هر کسی که قصد استفاده از هوش مصنوعی را برای اهداف مخرب دارد تبدیل کرد.

این اولین بار نیست که یک چت بات برای اهداف مخرب ایجاد می شود. در سال 2023، محققان دو چت ربات مضر دیگر به نام‌های WormGPT و FraudGPT را شناسایی کردند که برای فعالیت‌های مجرمانه استفاده می‌شدند و باعث نگرانی‌های جدی در جامعه امنیت سایبری می‌شدند.

با این وجود، افزایش محبوبیت GhostGPT که با هزاران بازدید در انجمن های آنلاین نشان داده شده است، نشان دهنده علاقه فزاینده مجرمان سایبری به هوش مصنوعی و نیاز به اقدامات امنیت سایبری نوآورانه است. جامعه امنیت سایبری باید به طور مداوم نوآوری کند و دفاع خود را توسعه دهد تا جلوتر از منحنی ها بماند.

منبع :

https://hackread.com/ghostgpt-malicious-ai-chatbot-fuel-cybercrime-scams/

0 Comments

دیدگاهتان را بنویسید

Avatar placeholder

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *