تاثیر هوش مصنوعی بر آینده جرم را نمی توان نادیده گرفت. سازمانهای مجری قانون و قانونگذاران با تعامل پیچیده بین فناوری هوش مصنوعی در حال پیشرفت و فعالیتهای مجرمانه دست و پنجه نرم میکنند. به همین خاطر بحثهایی در مورد لزوم مقررات و تدابیر امنیتی جامع مطرح شده است.

به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از cryptopolitan ، همچنان که جهان در عصر دیجیتال حرکت می کند، ظهور هوش مصنوعی (AI) شبیه به یک شمشیر دو لبه می باشد که جنبه های مختلف جامعه را متحول کرده و در عین حال چالش های بی سابقه ای را هم ایجاد کرده است. این چالشها میتواند حملات تروریستی، جعل هویت یا حتی توطئههای باجگیری باشد.
قابلیت نگران کننده هوش مصنوعی
به گفته جاناتان هال کی سی، ظهور چت ربات های مبتنی بر هوش مصنوعی به سرعت در حال تغییر شکل چشم انداز افراط گرایی آنلاین می باشد. وی هشدار می دهد که لایحه ایمنی آنلاین که برای مبارزه با تهدیدات اینترنتی طراحی شده، احتمالاً برای رسیدگی به محتوای تروریسم تولید شده توسط هوش مصنوعی مشکل خواهد داشت. تکیه بر پایگاه داده متریال های شناخته شده جهت تشخیص اشکال جدید گفتمان تولید شده توسط چتباتهای هوش مصنوعی کافی نمی باشد. بلکه به پیاده سازی تدابیر حفاظتی دقیق و مکانیسمهای اجرایی جهت اطمینان از اینکه محتوای افراطی تولید شده توسط هوش مصنوعی بدون کنترل تکثیر نمیشوند، نیاز داریم.
توانایی هوش مصنوعی برای جعل هویت توسط مجرمان در کلاهبرداری های پیچیده تر مورد سوء استفاده قرار گرفته است. برخی پرونده ها نشان میدهد که هوش مصنوعی چگونه صدای فرزندان یک خانواده را تقلید کرده و یک کلاهبرداری آدمربایی را که خواستار باج شده، ممکن سازد. پیشرفت سریع هوش مصنوعی در جعل هویت صوتی/تصویری همراه با برنامههایی که به واقعیت نزدیکتر هستند، تاثیر می گذارند. قابلیت دستکاری عاطفی از طریق درخواست های کمک یا باج گیری ایجاد شده توسط هوش مصنوعی، نگرانی هایی را در مورد آینده چنین کلاهبرداری هایی ایجاد کرده است.
گسترش فناوری دیپفیک، توطئههای باجگیری را که توسط تصاویر و ویدئوهای دستکاری شده هدایت میشود، افزایش میدهد. در واقع، توانایی به تصویر کشیدن قانع کننده فردی در حال انجام اقدامات ساختگی، به طور پیوسته در حال بهبود می باشد. سناریوهایی وجود دارد که در آن مجرمان از دیپفیکها برای وادار کردن قربانیان با تهدید به افشای موقعیتهای ساختگی سوء استفاده میکنند. چنین تاکتیکهایی میتواند به قربانیان آسیب عاطفی و آسیبهای مالی شدید وارد کند. به همین دلیل نیاز به اقدامات متقابل قوی در برابر باجگیری مبتنی بر هوش مصنوعی احساس می شود.
با اینکه احتمال استفاده از سامانههای سلاح خودکار توسط تروریستها چندان قریب الوقوع به نظر نمی رسد، اما تواناییهای زبانی هوش مصنوعی در حال حاضر برای اهداف مخرب به کار گرفته میشوند. احتمال وقوع حملات با استفاده از پهپادها و وسایل نقلیه بدون راننده وجود دارد، اما خودمختاری کامل در تسلیحات تروریستی کمی دور از ذهن می باشد.
پاسخ ها و چالش های قانونی
پرداختن به چشم انداز در حال تحول جنایات تولید شده توسط هوش مصنوعی نیازمند پاسخ های قانونی نوآورانه می باشد. آموزش عمدی چت بات ها برای ترویج افراطی گری در افراد آسیب پذیر باید جرم انگاری شود و نیاز به تعیین قوانین جدید برای برآورده کردن پیچیدگیهای افراط گرایی مبتنی بر هوش مصنوعی وجود دارد. در تعیین معیارهای مسئولیت و مالکیت چشماندازی که به طور فزایندهای توسط فناوری هوش مصنوعی شکل میگیرد، چالشهایی مشاهده می شود.
پتانسیل تحول آفرین هوش مصنوعی فراتر از الگوهای جنایی موجود می باشد. مدلهای زبان بزرگ مانند ChatGPT میتوانند طیفی از فعالیتهای متقلبانه از جمله کلاهبرداریهای مالی، دستکاری بازار و حملات انکار سرویس را فعال کنند. پروفسور گریفین از آینده ای صحبت می کند که در آن سیستم های مبتنی بر هوش مصنوعی وظایفی مانند درخواست وام های تقلبی، هک و نظارت از راه دور را انجام می دهند. وی معتقد است که تأثیر هوش مصنوعی بر جرایم سنتی و فیزیکی ممکن است محدود باشد.
موضع گیری و احتیاط دولت
با توجه به مزایا و خطرات هوش مصنوعی، دولت ها باید در راستای امنیت آنلاین، خدمات فناوری را برای مبارزه با محتوای غیرقانونی، از جمله تهدیدات تولید شده توسط هوش مصنوعی، الزام کنند.
همچنان که هوش مصنوعی به تغییر جوامع ادامه می دهد، پتانسیل آن برای تغییر شکل چشم انداز جرم و جنایت هم عمیق می باشد. با این که پیشرفتها، ابزارهای جدیدی را به مجرمان ارائه می دهند، قانونگذاران، مجریان قانون و جامعه را هم به چالش میکشند تا هوشیار بمانند. ایجاد تعادل بین بهره برداری از قابلیت های هوش مصنوعی و محافظت در برابر سوء استفاده از آن یک ضرورت فوری می باشد زیرا جهان در حال حرکت در مسیرهای پیچیده جنایات مبتنی بر هوش مصنوعی می باشد.
پایان پیام/





















