آیا دنیای امنیت سایبری باید برای حملات بر هوش مصنوعی آماده میشود؟
آیا دنیای امنیت سایبری باید برای حملات بر هوش مصنوعی آماده میشود؟
آیا دنیای امنیت سایبری باید برای حملات بر هوش مصنوعی آماده میشود؟ تصور آینده ای که در آن هر کسی می تواند توسط اطلاعاتی فراتر از توان انسان مورد حمله قرار گیرد بسیار ترسناک است. شاید به همین دلیل است که بهتر است هوش مصنوعی به عنوان ابزار دیگری برای پشتیبانی از کار مردم تصور شود. با این حال، مجدداً، توانایی ترکیبی چنین بازیگر انسانی نیز نگران کننده است، به خصوص اگر بازیگر مذکور بهترین منافع جامعه خود را در ذهن نداشته باشد.
با اهمیت روزافزون هوش مصنوعی درست مانند شرکتها، مردم در تلاش هستند تا بفهمند چگونه میتوان از آن برای خدمت به اهداف خود استفاده کرد و از تلاشهایشان حمایت کرد. به طور خاص در زمینه امنیت سایبری، هوش مصنوعی میتواند نقش سازنده و مخربی داشته باشد، اولی به معنای حمایت از دفاع سایبری بهتر است و دومی تلاش میکند تا دفاع سایبری گفته شده را فلج کند.
یکی از نگرانیهای خاص، احتمال گسترش گستردهتر حملات سایبری به زیرساختهای حیاتی است. زیرساخت های حیاتی که معمولا شامل تولید برق و شبکه برق، بیمارستان ها و سیستم های مراقبت های بهداشتی و زنجیره تامین جهانی می شود، می تواند شامل زنجیره های تامین دیجیتال و خود اینترنت نیز باشد.
بسته به نیازهای خاص، منابع و سطح توسعه یک کشور، زیرساختهای حیاتی نشاندهنده همه سیستمها، شبکهها و داراییهایی هستند که ضروری هستند، همراه با عملکرد مستمر آنها برای تضمین امنیت یک کشور، اقتصاد آن و عموم مردم.
سلامت یا ایمنی از آنجایی که ایده پشت این حملات تضعیف دشمنان از طریق فلج کردن کسب و کار روزانه آنهاست، یک ابزار موثر هوش مصنوعی می تواند به طور فرضی به بازیگران بد کمک کند تا حملات خود را انجام دهند یا حتی تعداد مهاجمان بالقوه را با تسهیل کدگذاری بدافزار افزایش دهند. با این حال، همه نظر یکسانی ندارند.
جهت خرید لایسنس نود 32 – آپدیت از سرور اصلی ESET را داشته باشد کلیک کنید.
نقش هوش مصنوعی آیا هک کردن آسان تر می شود؟
طبق مصاحبهای با کامرون کمپ، محقق امنیتی ESET، ما واقعاً به «بدافزار تولید شده با هوش مصنوعی کامل» نزدیک نیستیم ، اگرچه ChatGPT در پیشنهاد کد بسیار خوب است، او میگوید که نمونهها و قطعههای کد را تولید میکند، اشکالزدایی و بهینهسازی کدها، و حتی خودکار کردن اسناد.
او موافقت کرد که ChatGPT می تواند به عنوان یک ابزار مفید برای کمک به برنامه نویسان مورد استفاده قرار گیرد، ابزاری که می تواند به عنوان اولین گام به سمت ایجاد بدافزار عمل کند، اما هنوز نه، زیرا در حال حاضر نسبتا سطحی است، خطا می دهد، پاسخ های جعلی ایجاد می کند و چندان قابل اعتماد نیست. هر چیزی جدی
آیا دنیای امنیت سایبری باید برای حملات بر هوش مصنوعی آماده میشود؟
فیشینگ قانعکنندهتر از جستوجوی منابع داده بیشتر و ترکیب آنها بهطور یکپارچه برای ایجاد ایمیلهای ساختهشده خاص که در آن تشخیص سرنخهایی از اهداف مخرب آنها بسیار دشوار است خوانندگان به سختی دچار مهندسی اجتماعی نمیشوند. همچنین افراد نمی توانند به دلیل اشتباهات زبانی درهم و برهم، تلاش های فیشینگ را تشخیص دهند، زیرا می توانند دستور زبان قانع کننده ای داشته باشند.
به طور خاص، فیشینگ نیزه میتواند قانعکنندهتر شود، زیرا ایمیلها یا پیامهای سفارشی، حتی از جمله محرکهای احساسی شخصیشده، به لطف کمک هوش مصنوعی میتوانند آسانتر ساخته شوند. این تواناییها با گزینههای تولید متن چند زبانه بیشتر پشتیبانی میشوند، چنین روشهایی ممکن است در مقیاس گستردهتر و جهانی کار کنند، که در صورت هدفگیری زیرساختهای حیاتی چندین کشور به طور همزمان، هدف مفیدی را دنبال میکند.
اتوماسیون مذاکره باج اپراتورهای باج افزار ساده نادر هستند، اما افزودن کمی درخشش ChatGPT به ارتباطات می تواند بار کاری مهاجمان را که در طول مذاکرات قانونی به نظر می رسد کاهش دهد. این همچنین به معنای اشتباهات کمتری خواهد بود که ممکن است مدافعان را قادر به شناسایی هویت و مکان واقعی اپراتورها کند.
علاوه بر این، به لطف تولید آسانتر ویدیو و صدا با هوش مصنوعی ( نمونهای را اینجا ببینید )، بازیگران مخرب میتوانند به هر کسی تبدیل شوند و هویت خود را به طور موثرتری پنهان کنند. در واقع، نگرانی ها در مورد هوش مصنوعی در این زمینه به قدری گسترده شده است که بسیاری از متخصصان می خواهند در قراردادهای خود ممنوعیت استفاده از کار خود را برای اهداف هوش مصنوعی قید کنند.
و اگر این را باور ندارید، این ویدیوی پرزیدنت بایدن، ترامپ و اوباما را در حال بحث در مورد یک بازی ویدیویی ، که البته همه توسط هوش مصنوعی تولید شده است، تماشا کنید. تصور کنید چگونه در طول یک حمله باجافزار، یک مهاجم آنلاین میتواند از یک مقام عالی رتبه تقلید کند تا از راه دور به یک شبکه یا یک سیستم دسترسی پیدا کند…
کلاهبرداری های تلفنی بهتر با طبیعی تر شدن تولید زبان طبیعی، کلاهبرداران به نظر می رسد که اهل منطقه شما هستند و بهترین منافع شما را در ذهن دارند. این یکی از اولین مراحل ورود در یک کلاهبرداری اعتماد به نفس است: با به نظر رسیدن اینکه آنها یکی از افراد شما هستند، اعتماد به نفس بیشتری داشته باشید.
تا زمانی که کلاهبرداران آهنگ طبیعی مناسبی را برای صدای افراد ایجاد کنند، به راحتی می توانند قربانیان خود را فریب دهند، اما مشکل هر محتوای تولید شده توسط هوش مصنوعی امروز این است که یک “مصنوعی” ذاتی در آن وجود دارد، به این معنی که با وجود این صداها، ویدیوها یا متنهایی که به نظر درست به نظر میرسند، همچنان دارای برخی از اشتباهات خاص یا مسائلی هستند که به راحتی قابل تشخیص هستند مانند اینکه ChatGPT چگونه اظهارات نادرست میکند یا پاسخهای آن چگونه به نظر میرسد. مثل اینکه فقط یک صفحه ویکی پدیا را باز می گرداند.
با این حال، همه اینها به این معنی نیست که هوش مصنوعی مولد نمی تواند برای طوفان فکری، برای ایجاد پایگاهی برای برخی کارها استفاده شود، با این حال، صحت اطلاعات ارائه شده هنوز باید بررسی شود. عواقب قانونی استفاده از محتوای تولید شده توسط هوش مصنوعی (منبع شده از شبکه) نیز ممکن است مورد توجه قرار گیرد.
شما میتوانید جهت خرید لایسنس های اورجینال با کلیک برروی خرید لایسنس اورجینال اقدام به خرید نمایید.
زیرساخت های حیاتی در مقابل هوش مصنوعی قوانین نوظهور
همانطور که هوش مصنوعی شروع به ایفای نقش مهم فزایندهای در امنیت سایبری میکند، کسبوکارها و دولتها باید هوش مصنوعی را به نفع خود تطبیق دهند و از آن استفاده کنند زیرا کلاهبرداران قطعاً سعی میکنند همین کار را انجام دهند. از گزارش جولای 2022 توسط Acumen Research and Consulting ، بازار جهانی هوش مصنوعی در سال 2021 14.9 میلیارد دلار بود و تخمین زده می شود که تا سال 2030 به 133.8 میلیارد دلار برسد.
به لطف استفاده روزافزون از اینترنت اشیا و سایر دستگاه های متصل، سرویس های امنیتی مبتنی بر ابر می توانند فرصت های جدیدی را برای استفاده از هوش مصنوعی فراهم کنند. آنتی ویروس، جلوگیری از از دست دادن داده، تشخیص تقلب، مدیریت هویت و دسترسی، سیستمهای تشخیص/پیشگیری از نفوذ، و خدمات مدیریت ریسک و انطباق، از ابزارهایی مانند یادگیری ماشینی برای ایجاد حفاظت انعطافپذیرتر استفاده میکنند.
اگر قصد خرید لایسنس اورجینال دارید با کلیک برروی خرید لایسنس اورجینال از سرور اصلی کلیک کنید.
از طرف دیگر، بازیگران بد نیز می توانند از هوش مصنوعی به نفع خود استفاده کنند. با بازار به اندازه کافی بزرگ از هوش مصنوعی هوشمند، کلاهبرداران می توانند به راحتی از آن برای شناسایی الگوهای موجود در سیستم های کامپیوتری استفاده کنند تا نقاط ضعف نرم افزار یا برنامه های امنیتی را آشکار کنند، و آنها را قادر می سازد از نقاط ضعف تازه کشف شده سوء استفاده کنند.
بنابراین، زیرساخت های حیاتی می تواند به یکی از اهداف تبدیل شود. با حمله هوش مصنوعی و دفاع از آن، تلاش برای تلاقی، بازیگران امنیتی و دولت ها باید باهوش بمانند.
اتحادیه اروپا در حال حاضر با پیشنهاد قانون هوش مصنوعی اتحادیه اروپا ، برای کنترل استفاده از آن در اروپا، با طبقهبندی ابزارهای مختلف هوش مصنوعی بر اساس سطح خطر درک شده، از پایین تا غیرقابل قبول، سعی در ارزیابی خطرات دارد. دولت ها و شرکت هایی که از این ابزارها استفاده می کنند، بسته به سطح ریسک، تعهدات متفاوتی خواهند داشت.
برخی از این ابزارهای هوش مصنوعی مانند ابزارهایی که در زیرساخت های حیاتی استفاده می شوند، ممکن است پرخطر در نظر گرفته شوند. کسانی که از هوش مصنوعی پرخطر استفاده میکنند احتمالاً موظف خواهند بود ارزیابیهای دقیق ریسک را تکمیل کنند، فعالیتهای خود را ثبت کنند و دادهها را برای بررسی دقیق برای افزایش هزینههای انطباق برای شرکتها در اختیار مقامات قرار دهند. اگر شرکتی قوانین را زیر پا بگذارد، جریمه احتمالاً حدود 30 میلیون یورو یا تا 6 درصد از سود جهانی آنها خواهد بود.
قوانین و ایدههای مشابهی در قانون همبستگی سایبری اتحادیه اروپا که اخیراً پیشنهاد شده است، گنجانده شده است زیرا مقامات دولتی سعی میکنند جلوتر از حملات زیرساختی حیاتی بمانند.
دیدگاه خود را ثبت کنید
تمایل دارید در گفتگوها شرکت کنید؟در گفتگو ها شرکت کنید.