روش های هک گوشی 💀+ روش های جلوگیری از هک،امنیت گوشی های هوشمند و …
ژوئن 10, 2022ابزار های گوگل 🧰+ معرفی 25 ابزار گوگل و فواید آن که باید بدانید!
ژوئن 19, 2022هوش مصنوعی یک شمشیر دو لبه است که می تواند به عنوان یک راه حل امنیتی یا به عنوان یک سلاح توسط هکرها استفاده شود. هوش مصنوعی مستلزم توسعه برنامه ها و سیستم های مختلفی است. که قادر به نشان دادن ویژگی های مرتبط با رفتارهای انسانی هستند. ویژگی ها شامل توانایی سازگاری با یک محیط خاص یا پاسخ هوشمندانه به یک موقعیت است. فناوریهای هوش مصنوعی بهطور گسترده در راهحلهای امنیت سایبری به کار گرفته شدهاند. اما هکرها نیز از آنها برای توسعه برنامههای بدافزار هوشمند و اجرای حملات مخفیانه استفاده میکنند. در این مقاله همه چیز در مورد هک هوش مصنوعی به شما گفته می شود!.
آنچه در این مقاله خواهید خواند :
هک هوش مصنوعی
کارشناسان می دانند که در زمینه راه اندازی هوش مصنوعی عجله ی زیادی وجود دارد. به این دلیل که ممکن است هوش مصنوعی هک شود. در صورتی که چنین اتفاقی رخ بدهد افراد نمی توانند به راحتی کار های خود را انجام دهند. علاوه بر این امنیت بیشتر از قبل به خطر می افتد.
مانند همه نرم افزارها، هوش مصنوعی (AI) / یادگیری ماشینی (ML) در برابر هک آسیب پذیر است. اما به دلایل مختلف که باید آموزش داده شود، AI/ML حتی از بسیاری از نرم افزارها حساس تر است. حتی بدون دسترسی به شبکه کامپیوتری که روی آن اجرا می شود، می توان با موفقیت به آن حمله کرد.
سیستمهای AI/ML باید قبل از استقرار با استفاده از مجموعه دادههای وسیع آموزش داده شوند..مثلاً از تصاویر چهرهها برای آموزش نرمافزار تشخیص چهره استفاده میشود. با نگاه کردن به میلیونها تصویر برچسبگذاری شده، میتوان AI/ML را آموزش داد. تا مثلاً گربهها را از سگ تشخیص دهد. اما این خط آموزشی است که AI/ML را حتی در برابر مهاجمانی که به شبکهای که در آن اجرا میشود دسترسی ندارند، آسیبپذیر میکند.
بیشتر بخوانید: هوش مصنوعی چیست؟
خطر هک هوش مصنوعی
حملات مسمومیت داده ها با کاشت تصاویر ساخته شده ویژه در مجموعه های آموزشی AI/ML کار می کنند. که در برخی موارد از اینترنت عمومی حذف شده یا از رسانه های اجتماعی یا سایر پلتفرم ها برداشت شده اند.
اگرچه برای چشم انسان از یک تصویر واقعی قابل تشخیص نیست. اما تصاویر مسموم حاوی دادههایی هستند که میتوانند AI/ML را برای شناسایی نادرست دستهبندیهای اقلام آموزش دهند. در واقع، طبق ارائه سال گذشته توسط پروفسور رمزنگاری استانفورد، Dan Boneh، یک تصویر خراب در یک مجموعه آموزشی می تواند برای مسموم کردن یک الگوریتم و شناسایی اشتباه هزاران تصویر کافی باشد.
بونه توضیح داد که تصاویر مسموم را میتوان به روشهای مختلف ساخت و یکی از تکنیکهای معروف به روش نشانه گرادیان سریع یا FGSM را نشان داد که نقاط داده کلیدی را در تصاویر آموزشی شناسایی میکند. با استفاده از FGSM، یک مهاجم میتواند تغییراتی در سطح پیکسل به نام «اختلال» در یک تصویر ایجاد کند. اگرچه برای چشم انسان نامرئی است. اما این اغتشاشات تصویر را به یک “مثال متخاصم” تبدیل می کند. ورودی های داده ای را ارائه می دهد که باعث می شود AI/ML با فریب دادن مدلی که استفاده می کند، آن را به اشتباه شناسایی کند.
حملات ملی به هوش مصنوعی
یکی از انواع حملاتی که بیشتر به سازمان های امنیت ملی مربوط می شود، حمله به اصطلاح استخراج است. استخراج یک تکنیک حمله جعبه سیاه است .که برای مهندسی معکوس مدلهای AI/ML یا دریافت اطلاعات در مورد دادههای مورد استفاده برای آموزش آنها استفاده میشود.
Ziring یکی از مدیران NSA (شرکت امنیت سایبری) حملات استخراج را اینگونه توضیح داد: «اگر یک سازمان دولتی هستید، تلاش زیادی برای آموزش مدل خود انجام دادهاید. شاید از دادههای بسیار حساس برای آموزش آن استفاده کردهاید.ممکن است یک مهاجم سعی کند مدل شما را تحت بررسی و حمله قرار دهد. یک روش هدایت شده ریاضی به منظور استخراج حقایق در مورد مدل، رفتار آن یا داده هایی که برای آموزش آن استفاده شده است. اگر دادههای مورد استفاده برای آموزش آن بسیار حساس، اختصاصی و غیرعمومی بود، شما نمیخواهید این اتفاق بیفتد.»
Ziring گفت که باید از یک مدل مشارکت عمومی و خصوصی برای مقابله با تهدیدات AI/ML استفاده شود. سازمانهای چندجانبه دقیقاً مکان مناسبی برای پیگیری این امر هستند. از آنجا که شما آن تنوع دیدگاهها و بینشهای متفاوت از ذینفعان مختلف را دریافت خواهید کرد که میتواند به ایجاد یک اجماع امنیتی کمک کند . این یکی از مهمترین بخش های لازم برای ایمن کردن سیستمهای AI/ML است. یعنی تصاویر و آموزش های اولیه به هوش مصنوعی را چند برابر می کنید تا اشتباه آن در برابر تصاویر ساختگی به 1 درصد برسد!.
هک شدن AI چقدر احتمال دارد؟
طبق گزارشی جدید، سیستمهای یادگیری ماشین (ML) به یکی از اجزای اصلی زندگی روزمره تبدیل شده اند. پس این. تهدیدات امنیتی ناشی از آنها به انواع برنامههایی که ما استفاده میکنیم را بیشتر می کند در نرمافزارهای سنتی نقصهای طراحی و کد منبع بیشتر مسائل امنیتی را در بر میگیرد. اما در سیستمهای هوش مصنوعی، آسیبپذیریها میتواند در تصاویر، فایلهای صوتی، متن و سایر دادههای مورد استفاده برای آموزش و اجرای مدلهای یادگیری ماشین وجود داشته باشد.
به نظر می رسد مشکل یافتن آسیب پذیری های نرم افزاری برای سیستم های ML مناسب باشد.(سیستم های ML و AI هر دو بخشی از هوش مصنوعی هستند). مرور کد خط به خط فقط یک نوع مشکل خسته کننده است.اگر فقط بتوانیم به آنها آموزش دهیم که یک آسیب پذیری چگونه است می توانیم از هک هوش مصنوعی جلوگیری کنیم. البته چالشهایی در مورد آن وجود دارد.اما در حال حاضر مقدار زیادی از ادبیات دانشگاهی در مورد این موضوع وجود دارد و تحقیقات همچنان ادامه دارد. دلایلی وجود دارد که انتظار داشته باشیم سیستمهای ML در این زمان با گذشت زمان بهتر شوند. دلایلی هم وجود دارد که انتظار داشته باشیم در نهایت در آن بسیار خوب شوند.
با استفاده از هوش مصنوعی برای کاربردهای بعدی، نگرانی ها در مورد امنیت افزایش می یابد. مدتها پیش روزهایی بود که دیپ بلو گری کاسپاروف را در یک مسابقه شطرنج شکست داد و این یک موفقیت بزرگ به حساب میآمد. اگر هوش مصنوعی در یک سیستم توصیه در صنعت خرده فروشی اشتباه کند، قابل تحمل است. با این حال، اگر یک خودروی خودران مرتکب اشتباه شود، حتی میتواند منجر به مجروح شدن یا از دست دادن جان افراد شود. پس چگونه هوش مصنوعی را هک کنیم؟
هک هوش مصنوعی چگونه انجام می شود؟
گرچه به صورت مختصر در بالا روش هک هوض مصنوعی گفته شد. اما به طور دقیق گرانش این برنامه های کاربردی هوش مصنوعی نیاز به بحث گسترده ای در مورد امنیت یادگیری ماشین دارد. یک الگوریتم یادگیری ماشینی می تواند خود را به طرق مختلف منتشر کند. افراد دارای اهداف مخرب می توانند نقص های خاصی را در یک سیستم هوش مصنوعی تشخیص دهند. اگر آنها این کار را قبل از مسئولین امنیتی که آن را ایجاد کرده اند انجام دهند، نتایج می تواند فاجعه بار باشد. وظایف علم داده و امنیت سایبری ایجاد راه حل هایی برای مقابله با این حملات است.
مشکلات امنیتی هوش مصنوعی
مشکلات امنیتی هوش مصنوعی اغلب خود را به عنوان بهره برداری از تکنیک های یادگیری ماشین نشان می دهد. الگوریتم ها فریب داده می شوند تا ارزیابی اشتباهی از کل وضعیت انجام دهند. هنگامی که ورودی اشتباه است، خروجی حاوی تصمیمات اشتباه یا حتی مرگبار است. سیستمهای AI/ML مانند هر فناوری دیگری فرصتهایی را برای بهرهبرداری و پیکربندی نادرست دارند. اما خطرات منحصر به فرد خود را نیز دارد. از آنجایی که شرکتهای بیشتری بر تحولات دیجیتالی مبتنی بر هوش مصنوعی تمرکز میکنند، این خطرات تنها در آسیبپذیری بیشتر میشوند.
2 دارایی حیاتی در هوش مصنوعی وجود دارد. اولین مورد داده، کلان داده است. اینگونه است که هوش مصنوعی می تواند پیش بینی ها و بینش های خود را یاد بگیرد/آموزش دهد و استنباط کند. دومین دارایی خود مدل داده است. این مدل نتیجه آموزش الگوریتم با داده های بزرگ و مقایسه با داده های بیشتر است و این مزیت رقابتی هر شرکتی است. شرکت های مبتنی بر داده باید راه حلی برای ایمن سازی داده های بزرگ و مدل های داده برای محافظت از پروژه های هوش مصنوعی خود طراحی کنند.
از آنجایی که سیستمهای هوش مصنوعی و یادگیری ماشین به حجم بالاتری از دادههای پیچیده نیاز دارند، راههای زیادی وجود دارد که از طریق آنها میتوان از سیستمهای AI/ML بهرهبرداری کرد. مکانیسمهایی برای شناسایی و خنثی کردن حملاتی وجود دارد که سازمانها میتوانند از آنها استفاده کنند.اما این سوال همچنان باقی میماند که چگونه میتوان از اصول موجود برای محاسبات محرمانه به منظور توسعه برنامههای هوش مصنوعی ایمن استفاده کرد.
در حال حاضر چهار منطقه وجود دارد که حملات هوش مصنوعی بیشترین آسیب را در آنها وارد می کند:
نیروهای نظامی / پلیس
ربات های مجهز به هوش مصنوعی که جایگزین وظایف انسان می شوند
جامعه مدنی
ربات صنعتی مجهز به هوش مصنوعی
هوش مصنوعی 75 درصد راه حل های امنیت شبکه را در شرکت های بین المللی مدیریت می کند. پیش بینی می شود که هزینه های مربوط به امنیت سایبری و مدیریت ریسک تا سال 2023 به 175.5 میلیارد دلار برسد.
مثال های هک AI
1-فریب دادن تسلا مدل اس
به عنوان مثال، برچسبهایی که به راحتی قرار داده شده بودند توانستند یک تسلا مدل S را فریب دهند. تا علامت توقف را به عنوان علامت «خط اضافه شده» تشخیص دهد. در هر رفت و آمدی، به احتمال زیاد این مسئله روند نظم را خراب می کند. همچنین، استیکرها موفق شدند الگوریتم آن را فریب دهند. تا به جای 35 روی علامت محدودیت سرعت، 85 را ببیند. این نوع از هک هوش مصنوعی تسلا می تواند مرگبار باشد.
مغز انسان بدون زحمت استنباط میکند که محدودیت سرعت 35 است. اما الگوریتمهای یادگیری ماشین هنوز با نمونههایی که از اکثریت منحرف میشوند مبارزه میکنند. این مثال ممکن است مصنوعی باشد، اما نشان میدهد که چگونه علائم راهنمایی و رانندگی آسیب دیده نقطه ضعف بالقوه هوش مصنوعی را نشان میدهند.
2-نظارت تصویری با شکست مواجه می شود
در بیشتر موارد، الگوریتم های یادگیری ماشین را می توان با دستکاری پیکسل های زیرین یک تصویر فریب داد. این تغییرات برای انسان نامرئی است، اما الگوریتم را به بیراهه می کشاند.
در برخی موارد، میتوانید این الگوریتمها را بدون استفاده از فناوری یا ویرایش تصویر فریب دهید. در زیر می بینید که فرد سمت چپ شناسایی شده است، اما فرد سمت راست که نقاشی روی نیم تنه خود دارد، شناسایی نمی شود. تکنیکهای یادگیری ماشین این انتظار را نداشتند و به تصمیم اشتباه منجر شده است. مدلهای یادگیری عمیق/ یادگیری ماشینی بر تحلیل رفتار کاربر تکیه دارند.
وقتی از آنچه الگوریتم به عنوان رفتار عادی کاربر درک می کند، پیروی نکنید، در اینجا چه اتفاقی می افتد. به یاد داشته باشید که تشخیص تصویر مبتنی بر هوش مصنوعی در پزشکی نیز استفاده می شود. سوء استفاده از آسیب پذیری های آن ممکن است منجر به تشخیص اشتباه شود.
بیشتر بخوانید: متاورس چیست؟
آیا فریب دادن یک الگوریتم هوش مصنوعی واقعاً به همین راحتی است؟
هک مبتنی بر هوش مصنوعی
تاریخچه هک نشان می دهد که با پیچیده تر شدن پروتکل ها و ابزارهای امنیتی، هکرها خلاقیت بیشتری پیدا می کنند. متخصصان امنیتی چندی است که استفاده از هوش مصنوعی را آغاز کرده اند و هکرها نیز از این موضوع دور نیستند.
مبارزه آتش با آتش ممکن است ابزاری برنده برای هکرهای مخربی باشد که به دنبال بهره برداری از الگوریتم های امنیتی هوش مصنوعی هستند. تکنیکهای یادگیری ماشینی که برای هک استفاده میشوند میتوانند باگها را بسیار سریعتر از انسانها یا بدافزارهای معمولی پیدا کنند. اگر سیستم امنیتی با هوش مصنوعی تغذیه شود، این فرآیند ممکن است بیشتر طول بکشد. با این حال، الگوریتم مخرب از طریق یادگیری نظارت شده از الگوریتم امنیتی می گذرد و در نهایت آن را فریب می دهد. به طور کلی، این رویکرد می تواند بدون نیت بد در شبکه Generative Adversarial (GAN) مفید باشد.
برای اینکه سازمانها بتوانند برنامههای هوش مصنوعی و مدلهای یادگیری ماشین خود را ایمن کنند، باید از راهحلهای امنیتی استفاده کنند .که محیطهای محاسباتی فوقایمن محرمانه را فراهم میکنند. وقتی محاسبات محرمانه با راهحلهای مناسب امنیت سایبری، مانند ماژول امنیتی سختافزار انعطافپذیر (HSM) ترکیب میشود، میتواند حفاظت از دادههای سرتاسر قوی را در ابر برای برنامههای هوش مصنوعی – بزرگ و کوچک – ارائه دهد.
اخبار جعلی و تبلیغات
شبکه های اجتماعی بزرگ در حال حاضر از تکنیک های یادگیری ماشینی برای تشخیص انتشار اخبار جعلی و سخنان نفرت استفاده می کنند. آنها ممکن است کامل نباشند. اما آینده فقط باید پیشرفت هایی را به همراه داشته باشد. طرف دیگر این طیف افرادی را دارد که آن را یک قدم جلوتر می برند.
هر کسی با رایانه میتواند توییتها و تصاویر را دستکاری کند تا به شهرت شخص دیگر آسیب برساند. با این حال، بسیاری از بررسیکنندگان حقایق میتوانند این دستکاریها را شناسایی کرده و حقیقت واقعی را روشن کنند. جعل ویدیوها و صدای انسان یک تهدید جدید امنیت سایبری است. ویدیوهایی از افراد مشهور و سیاستمداران وجود دارد که در مورد چیزهایی صحبت می کنند که در واقع هرگز نگفته اند. به آن دیپ فیک می گویند. این ویدیوی اوباما را ببینید و فقط به احتمالات بی پایان و عمدتاً مخرب با دیپ فیک فکر کنید. اگر از آن برای ایجاد مصاحبه های جعلی مانند این استفاده نکنید، ایجاد تبدیل متن به گفتار با هر صدایی جالب است.
اوباما دیپ فیک تولید شده توسط هوش مصنوعی
چگونه هکرها به الگوریتم های یادگیری ماشین حمله می کنند؟
سه نوع حمله وجود دارد که هکرها از آنها برای خراب کردن الگوریتم های یادگیری ماشین استفاده می کنند:
حملات فرار
هکرها ورودی های الگوریتم معیوب را ارائه می دهند که منجر به تصمیم گیری های نادرست می شود.
حملات مسمومیت
هکرها داده های مسموم را برای مجموعه های آموزشی ارائه می دهند. که الگوریتم یادگیری ماشین را خراب می کند و فرآیند داده کاوی را خراب می کند.
حملات حریم خصوصی
هکرها از مرحله آموزش برای بازیابی اطلاعات خصوصی از الگوریتم استفاده می کنند.
دانشمندان داده باید الگوریتم های یادگیری ماشین را در برابر تهدیدات مختلف آموزش دهند. مهم است که در برابر این انواع حملات هک احتمالی ایمن بمانید.
چگونه هوش مصنوعی را انعطاف پذیرتر کنیم؟
دانشمندان داده در سراسر جهان در حال کار بر روی راهحلهای امنیت سایبری هستند .تا هوش مصنوعی را در برابر حملات هک مقاومتر کنند. تحلیلگران انسانی به طور مستمر بر روی روش های جدید تشخیص تهدید با کمک اطلاعات تهدید کار می کنند. بسیاری از رویکردها به سمت یک هدف کار می کنند. هدف این است که از فریب دادن آسان الگوریتم های یادگیری ماشین جلوگیری شود. تکنیکهای پیشنهادی متفاوت هستند و از کاهش ابعاد، تشخیص نفوذ و غیره استفاده میکنند.
اولین رویکرد مورد حمایت، انعطافپذیری بیشتر هوش مصنوعی با آموزش آن با دادههای بزرگ متخاصم است. بیایید با یک مدل AI (یادگیری ماشین/شبکه عصبی/ یادگیری عمیق) شروع کنیم. با گرفتن ورودی های داده ای که هکرها معمولاً از آنها استفاده می کنند، برای سوء استفاده های امنیتی بالقوه آموزش می بیند. این تجربه می تواند برای کمک به سازگاری الگوریتم قبل از ظاهر شدن تهدید واقعی مفید باشد. به این ترتیب، زمانی که هکرها سعی می کنند از الگوریتم سوء استفاده کنند، این الگوریتم آماده خواهد بود و تشخیص می دهد که شخصی در تلاش است از نقاط ضعف آن سوء استفاده کند.
دو روش وجود دارد که دانشمندان داده و مهندسان امنیت سایبری با کلان داده های متخاصم کار می کنند:
1-مانند یک انسان فکر کنید: در مثال تسلا، هوش مصنوعی در شرایطی که احتمالاً مغز انسان درست حدس میزند، تصمیمات اشتباهی میگیرد. دانشمندان داده، تفکر انسان را در الگوریتم های یادگیری ماشین و مدل های یادگیری عمیق گنجانده اند. هدف این است که از سوء استفاده از آنها با استفاده از داده های مسموم جلوگیری شود.
«مدل یاد میگیرد به همان شکلی که چشمان ما به آن تصویر نگاه میکند، به آن تصویر نگاه کند.» – آرش رهنما، دانشمند ارشد داده در Booz Allen
2-تشخیص تهدید قبل از آموزش: روش اول همچنان هوش مصنوعی را با دادههای مسموم کار میکند که سعی میکنند آن را فریب دهند. در این سناریو، تلاش برای شناسایی داده های بالقوه خطرناک قبل از ورود به مجموعه آموزشی انجام می شود. به این ترتیب، هوش مصنوعی از تشخیص ناهنجاری برای شناسایی انواع مختلف حملات به جای انواع داده های بالقوه خطرناک استفاده می کند.
“به جای طبقه بندی تصاویر، ما حملات را طبقه بندی می کنیم، ما از حملات یاد می گیریم.” – رهنما
سیستم ML یک تصمیم گیرنده هوشمند و غیر انسانی در یک سازمان است، اما اساساً با تصمیم گیرندگان انسانی متفاوت است. اندازهگیری دقیق انعطافپذیری چنین سیستمی ما را ملزم میکند تا ابزارهای خود را برای تطبیق با این تفاوتهای منحصربهفرد گسترش دهیم.
هوش مصنوعی به عنوان یک راه حل امنیتی
کارشناسان امنیتی تحقیقات زیادی را برای استفاده از قابلیت های هوش مصنوعی و گنجاندن آنها در راه حل های امنیتی انجام داده اند. ابزارها و محصولات امنیتی مجهز به هوش مصنوعی می توانند حوادث امنیت سایبری را با حداقل یا صفر ورودی انسان شناسایی کرده و به آنها پاسخ دهند. کاربردهای هوش مصنوعی در امنیت سایبری بسیار مفید هستند. 25 درصد از تصمیم گیرندگان فناوری اطلاعات، امنیت را دلیل اصلی اتخاذ هوش مصنوعی و یادگیری ماشینی در امنیت سایبری سازمانی می دانند.
هوش مصنوعی نه تنها وضعیت امنیتی را بهبود می بخشد، بلکه فرآیندهای تشخیص و پاسخ را نیز خودکار می کند. این امر باعث کاهش هزینه های مالی و زمان مورد استفاده در فرآیندهای مداخله و شناسایی انسان محور می شود.بنابراین در ادامه
کاربردهای هوش مصنوعی در امنیت سایبری را بررسی می کنیم:
1-مدل سازی رفتار کاربر
سازمان ها از هوش مصنوعی برای مدل سازی و نظارت بر رفتار کاربران سیستم استفاده می کنند. هدف از نظارت بر تعاملات بین یک سیستم و کاربران، شناسایی حملات تصاحب است. اینها حملاتی هستند که در آن کارمندان مخرب جزئیات ورود سایر کاربران را به سرقت می برند و از حساب های آنها برای ارتکاب انواع مختلف جرایم سایبری استفاده می کنند.
هوش مصنوعی در طول زمان فعالیت های کاربر را یاد می گیرد به طوری که رفتار غیرعادی را به عنوان ناهنجاری در نظر می گیرد. هر زمان که کاربر دیگری از حساب کاربری استفاده کند، سیستمهای مجهز به هوش مصنوعی میتوانند الگوهای فعالیت غیرعادی را شناسایی کرده و با قفل کردن کاربر یا بلافاصله به مدیران سیستم از تغییرات هشدار دهند.
2-استفاده از هوش مصنوعی در محصولات آنتی ویروس
ابزارهای آنتی ویروس با قابلیت های هوش مصنوعی با شناسایی برنامه هایی که رفتار غیرعادی از خود نشان می دهند، ناهنجاری های شبکه یا سیستم را شناسایی می کنند. برنامه های بدافزار برای اجرای عملکردهایی که با عملیات استاندارد رایانه متفاوت است کدگذاری می شوند. آنتی ویروس های هوش مصنوعی از تاکتیک های یادگیری ماشینی استفاده می کنند تا نحوه تعامل برنامه های قانونی با یک سیستم عامل را بیاموزند.
به این ترتیب، هر زمان که برنامه های بدافزار به یک شبکه معرفی می شوند، راه حل های آنتی ویروس هوش مصنوعی می توانند بلافاصله آنها را شناسایی کرده و دسترسی آنها به منابع سیستم را مسدود کنند. این در تضاد با آنتی ویروس های سنتی مبتنی بر امضا است که پایگاه داده امضا را اسکن می کند تا تعیین کند که آیا یک برنامه یک تهدید امنیتی است یا خیر.
3-تجزیه و تحلیل شبکه و سیستم خودکار
تجزیه و تحلیل خودکار داده های سیستم یا شبکه، نظارت مستمر را برای شناسایی سریع تلاش برای نفوذ تضمین می کند. تجزیه و تحلیل دستی به دلیل حجم عظیم داده های تولید شده توسط فعالیت های کاربر تقریبا غیرممکن است. مجرمان سایبری از تاکتیکهای فرمان و کنترل (C2) برای نفوذ به سیستمهای دفاعی شبکه بدون شناسایی استفاده میکنند.
چنین تاکتیک هایی شامل جاسازی داده ها در درخواست های DNS برای دور زدن فایروال ها و IDS/IPS است. دفاع سایبری مجهز به هوش مصنوعی از تشخیص ناهنجاری، تطبیق کلمات کلیدی و آمار نظارت استفاده می کند. در نتیجه، آنها می توانند انواع نفوذ شبکه یا سیستم را شناسایی کنند.
4-اسکن ایمیل ها
مجرمان سایبری ارتباطات ایمیل را به عنوان تکنیک تحویل اولیه برای پیوندهای مخرب و پیوست های مورد استفاده برای انجام حملات فیشینگ ترجیح می دهند. سیمانتک بیان می کند که 54.6 درصد از پیام های ایمیل دریافتی اسپم هستند و ممکن است حاوی پیوست ها یا پیوندهای مخرب باشند.
ایمیلهای ضد فیشینگ با قابلیتهای هوش مصنوعی و یادگیری ماشینی در شناسایی ایمیلهای فیشینگ بسیار موثر هستند. این با انجام بازرسی های عمیق روی پیوندها است. علاوه بر این، چنین ابزارهای ضد فیشینگ، کلیک روی لینک های ارسال شده را برای شناسایی علائم فیشینگ شبیه سازی می کنند. آنها همچنین از تکنیک های تشخیص ناهنجاری برای شناسایی فعالیت های مشکوک در تمام ویژگی های فرستنده استفاده می کنند. این موارد شامل پیوستها، پیوندها، متن پیام و موارد دیگر است.
بیشتر بخوانید: دارک وب چیست؟
هوش مصنوعی به کمک هکر ها آمده است!
هکرها به هوش مصنوعی روی می آورند !.آن ها از هوش مصنوعی (AI) برای مسلح کردن بدافزارها و حملات برای مقابله با پیشرفت های ایجاد شده در راه حل های امنیت سایبری استفاده می کنند. به عنوان مثال، مجرمان از هوش مصنوعی برای پنهان کردن کدهای مخرب در برنامه های کاربردی مختلف استفاده می کنند.
آنها کدها را طوری برنامهریزی میکنند که در یک زمان خاص اجرا شوند، مثلاً ده ماه پس از نصب برنامهها، یا زمانی که تعداد هدفمندی از کاربران مشترک برنامهها شدهاند. این برای به حداکثر رساندن تأثیراتی است که چنین حملاتی ایجاد می کند. پنهان کردن چنین کدها و اطلاعاتی مستلزم استفاده از مدل های هوش مصنوعی و استخراج کلیدهای خصوصی برای کنترل مکان و زمان اجرای بدافزار است.
با وجود این، هکرها می توانند یک ویژگی برنامه را به عنوان یک محرک هوش مصنوعی برای اجرای حملات سایبری از پیش تعریف کنند. ویژگی ها می توانند از احراز هویت فرآیندها از طریق تشخیص صدا یا بصری تا ویژگی های مدیریت هویت متغیر باشند. اکثر برنامههای کاربردی که امروزه استفاده میشوند دارای چنین ویژگیهایی هستند . این فرصتهای زیادی را برای مهاجمان فراهم میکند تا مدلهای هوش مصنوعی مسلحشده را تغذیه کنند، یک کلید استخراج کنند.سپسبه هر جایی به میل خود حمله کنند.
هکر ها با هک هوش مصنوعی یا سوء استفاده از همین AI برای سالها بدون شناسایی هک می کنند. زیرا هکرها منتظر میمانند تا زمانی که برنامهها آسیبپذیرتر هستند، حمله کنند.
هوش مصنوعی سیاه!
علاوه بر این، فناوریهای هوش مصنوعی از نظراتی منحصر به فرد هستند .که دانش و هوش را برای انطباق با آن به دست میآورند. هکرها از این قابلیتها آگاه هستند و از آنها برای مدلسازی حملات سازگار و ایجاد برنامههای بدافزار هوشمند استفاده میکنند. بنابراین، در طول حملات، برنامهها میتوانند اطلاعاتی را در مورد آنچه مانع موفقیت حملات شده است جمعآوری کنند و آنچه مفید بوده را حفظ کنند.
حملات مبتنی بر هوش مصنوعی ممکن است در اولین تلاش موفق نباشند، اما تواناییهای سازگاری میتوانند هکرها را قادر به موفقیت در حملات بعدی کنند. بنابراین جوامع امنیتی باید دانش عمیقی در مورد تکنیک های مورد استفاده برای توسعه حملات مبتنی بر هوش مصنوعی برای ایجاد کاهش و کنترل های موثر به دست آورند.
همچنین، دشمنان سایبری از هوش مصنوعی برای اجرای حملات هوشمندی که خود در یک سیستم یا شبکه منتشر میشوند، استفاده میکنند. بدافزارهای هوشمند میتوانند از آسیبپذیریهای کاهشیافته سوء استفاده کنند که منجر به افزایش احتمال در معرض خطر قرار گرفتن اهداف میشود. اگر یک حمله هوشمند با یک آسیبپذیری وصلهشده مواجه شود، بلافاصله با تلاش برای به خطر انداختن یک سیستم از طریق انواع مختلف حملات سازگار میشود.
راه جلوگیری ، داشتن اطلاعات بیشتر است!
در نهایت، هکرها از فناوریهای هوش مصنوعی برای ایجاد بدافزاری استفاده میکنند .که قادر به تقلید از اجزای سیستم قابل اعتماد است. این برای بهبود حملات مخفی کاری است. به عنوان مثال، بازیگران سایبری از برنامههای بدافزار مجهز به هوش مصنوعی برای یادگیری خودکار محیط محاسباتی یک سازمان استفاده می کنند. یا چرخه حیات بهروزرسانی patch ، پروتکلهای ارتباطی ترجیحی و زمانی که سیستمها کمترین محافظت را دارند. متعاقباً، هکرها می توانند حملات غیرقابل کشف را به دلیل ترکیب با محیط امنیتی سازمان اجرا کنند.
به عنوان مثال، TaskRabbit هک شد و 3.75 میلیون کاربر را در معرض خطر قرار داد. اما تحقیقات نتوانست این حمله را ردیابی کند. حملات مخفیانه با هوش مصنوعی یا با هک هوش مصنوعی خطرناک هستند. زیرا هکرها می توانند به یک سیستم نفوذ کرده و به دلخواه خود را ترک کنند. هوش مصنوعی چنین حملاتی را تسهیل می کند . پس این فناوری تنها منجر به ایجاد حملات سریعتر و هوشمندتر می شود.
استفاده از هوش مصنوعی در بخش های مهم نیازمند توجه ویژه به امنیت سایبری است. در برخی زمینه ها، اشتباهات هوش مصنوعی قابل تحمل و حتی برای توسعه آینده مفید هستند. در سایر زمینه ها، اشتباهات هزینه و صدمات مالی، روانی و فیزیکی دارد. بنابراین متخصصینی که در حال استفاده کردن از این فناوری هستند باید اطلاعات خود را روز به روز کامل تر کنند. تا دچار هک هوش مصنوعی نشویم.
نتیجه1:
فناوریهای هوش مصنوعی از این جهت منحصر به فرد هستند که دانش و هوش را برای تطبیق با آن به دست میآورند. هکرها از این قابلیتها آگاه هستند و از آنها برای مدلسازی حملات سازگار و ایجاد برنامههای بدافزار هوشمند استفاده میکنند. بنابراین، در طول حملات، برنامهها میتوانند اطلاعاتی را در مورد آنچه مانع موفقیت حملات شده است جمعآوری کنند و آنچه مفید بوده را حفظ کنند.
حملات مبتنی بر هوش مصنوعی ممکن است در اولین تلاش موفق نباشند. اما تواناییهای سازگاری میتوانند هکرها را قادر به موفقیت در حملات بعدی کنند. بنابراین جوامع امنیتی باید دانش عمیقی در مورد تکنیک های مورد استفاده برای توسعه حملات مبتنی بر هوش مصنوعی برای ایجاد کاهش و کنترل های موثر به دست آورند.
طبق گزارش مجمع جهانی اقتصاد درباره آینده مشاغل، هوش مصنوعی تا سال 2022 58 میلیون شغل جدید هوش مصنوعی ایجاد خواهد کرد. این شانس عالی وجود دارد که تا سال 2030 هوش مصنوعی در بیشتر کارهای ذهنی از انسان ها بهتر عمل کند، اما این به این معنی نیست. مشاغل را از بین خواهد برد.
نتیجه2:
شرکتهای علم داده یا همان IT قبلاً بسیاری از الگوریتمهای یادگیری ماشین را فریب دادهاند.اینطور نیست که آنها نتوانند این هک ها را کنترل کنند . از تشخیص علائم راهنمایی و رانندگی تا خواندن ECG و… همگی در صورت اشتباه تا الان می توانست سرو صداهای زیادی به پا کند. اما چون درست انجام شده اند کسی به این موارد اعتراض ندارد.
امنیت هوش مصنوعی می تواند نسبتاً پرهزینه باشد. تهدیدهای جدید امنیت سایبری هر روز ظاهر می شوند. دانشمندان داده باید قبل از اینکه کنترل را به دست بگیرند، سیستم های تشخیص تهدید را ارائه دهند. مبارزه با هکرها سخت است و هرگز پایان نخواهد یافت. برخی از افراد از مدل های یادگیری عمیق به عنوان راه حل های امنیتی استفاده می کنند. افراد دیگر با اهداف بد از آن برای دور زدن دفاع ما استفاده می کنند.
این یک جنگ بی پایان است که به این بستگی دارد که چه کسی تکنیک های یادگیری ماشینی بهتری دارد. شرکت های علم داده بزرگ باید در انجام وظایف امنیت سایبری خود سرمایه گذاری کنند. سرمایه گذاری در علم داده و هوش امنیت سایبری بیش از هر زمان دیگری اهمیت دارد. مدلهای یادگیری عمیق و شبکههای عصبی گاهی اوقات میتوانند عملکردی ترسناک مانند مغز انسان داشته باشند. اما آنها همچنین می توانند به راحتی شکست بخورند، بنابراین ما نباید از تسلط آن بر جهان در یکی دو سال آینده هراس داشته باشیم!