
امنیت غیرعادی GhostGPT، یک ربات چت هوش مصنوعی بدون سانسور که برای جرایم سایبری ساخته شده است را کشف می کند. بیاموزید که چگونه تواناییهای مجرمان سایبری را افزایش میدهد، اجرای فعالیتهای مخرب را آسانتر میکند و چالشهای جدی برای کارشناسان امنیت سایبری ایجاد میکند.
هوش مصنوعی (AI) صنایع بی شماری را متحول کرده است، اما پتانسیل سوء استفاده از آن غیرقابل انکار است. در حالی که مدلهای هوش مصنوعی مانند ChatGPT در زمینههای مختلف بسیار نویدبخش بودهاند، قدرت آنها میتواند به راحتی توسط عوامل تهدید از طریق چترباتهای مخرب هوش مصنوعی مانند GhostGPT مورد سوء استفاده قرار گیرد.
در اواخر سال 2024، ارائهدهنده راهحلهای امنیتی ایمیل مبتنی بر هوش مصنوعی، «Abnormal Security» این ربات چت هوش مصنوعی جدید را که بهطور خاص برای فعالیتهای مجرمانه سایبری طراحی شده بود، کشف کرد. با نام GhostGPT، این ابزار مخرب هوش مصنوعی، که به راحتی از طریق پلتفرم هایی مانند تلگرام در دسترس است، مجرمان سایبری را با قابلیت های بی سابقه ای، از ساخت ایمیل های فیشینگ پیچیده تا توسعه بدافزارهای پیچیده، توانمند می کند.
برخلاف مدلهای سنتی هوش مصنوعی که توسط دستورالعملهای اخلاقی و اقدامات ایمنی محدود شدهاند، GhostGPT بدون چنین محدودیتهایی عمل میکند. این دسترسی نامحدود به قابلیتهای قدرتمند هوش مصنوعی به مجرمان سایبری اجازه میدهد تا محتوای مخرب مانند ایمیلهای فیشینگ پیچیده و کدهای مخرب را با سرعت و سهولت بیسابقه تولید کنند.
با توجه به تجزیه و تحلیل غیر طبیعی امنیت، GhostGPT احتمالا با استفاده از یک بسته بندی برای اتصال به نسخه جیلبریک شده ChatGPT یا یک LLM منبع باز طراحی شده است، که حفاظت های اخلاقی را حذف می کند. این به GhostGPT اجازه میدهد تا پاسخهای مستقیم و بدون فیلتر به پرسشهای حساس یا مضری که سیستمهای هوش مصنوعی سنتی مسدود یا پرچمگذاری میکنند، ارائه دهد.
این ابزار به طور قابل توجهی مانع ورود جرایم سایبری را کاهش می دهد. دیگر نیازی به مهارتهای تخصصی یا دانش فنی گسترده نیست، حتی بازیگران با تجربه کمتر میتوانند از قدرت هوش مصنوعی برای فعالیتهای مخرب استفاده کنند و حملات پیچیدهتر و تاثیرگذارتری را با کارایی بیشتر انجام دهند.
علاوه بر این، GhostGPT ناشناس بودن کاربر را در اولویت قرار می دهد و ادعا می کند که فعالیت کاربر ثبت نمی شود. این ویژگی برای مجرمان سایبری که به دنبال پنهان کردن فعالیت های غیرقانونی خود و فرار از شناسایی هستند، جذاب است.
GhostGPT برای طیف وسیعی از فعالیتهای مخرب، از جمله کدنویسی، ایجاد بدافزار و توسعه بهرهبرداری به بازار عرضه شده است. همچنین میتوان از آن برای نوشتن ایمیلهای قانعکننده برای کلاهبرداریهای مرتبط با ایمیل تجاری ( BEC) استفاده کرد که آن را به ابزاری مناسب برای ارتکاب جرایم سایبری تبدیل میکند .
دسترسی آسان GhostGPT در تلگرام آن را برای مجرمان سایبری بسیار راحت کرده است. با یک اشتراک ساده، آنها می توانند بلافاصله بدون نیاز به تنظیمات پیچیده یا تخصص فنی، استفاده از ابزار را شروع کنند.
محققان امنیت غیرعادی قابلیتهای GhostGPT را با ایجاد یک الگوی ایمیل فیشینگ Docusign متقاعدکننده آزمایش کردند . چت بات توانایی خود را در فریب قربانیان احتمالی نشان داد و آن را به ابزاری قدرتمند برای هر کسی که قصد استفاده از هوش مصنوعی را برای اهداف مخرب دارد تبدیل کرد.
این اولین بار نیست که یک چت بات برای اهداف مخرب ایجاد می شود. در سال 2023، محققان دو چت ربات مضر دیگر به نامهای WormGPT و FraudGPT را شناسایی کردند که برای فعالیتهای مجرمانه استفاده میشدند و باعث نگرانیهای جدی در جامعه امنیت سایبری میشدند.
با این وجود، افزایش محبوبیت GhostGPT که با هزاران بازدید در انجمن های آنلاین نشان داده شده است، نشان دهنده علاقه فزاینده مجرمان سایبری به هوش مصنوعی و نیاز به اقدامات امنیت سایبری نوآورانه است. جامعه امنیت سایبری باید به طور مداوم نوآوری کند و دفاع خود را توسعه دهد تا جلوتر از منحنی ها بماند.
منبع :
https://hackread.com/ghostgpt-malicious-ai-chatbot-fuel-cybercrime-scams/
0 Comments