به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از asianews، از وقتی که سندیکاها شروع به استفاده از هوش مصنوعی در فعالیتهای خود کرده اند، دیپفیکها، جعلهای صوتی و دستکاری بازار مالی هم در دنیای جرم و جنایت پررنگ تر شده است.
برای مثال، اخیراً ویدئویی از یک رهبر مالزیایی که طرح پولدار شدن سریع را تبلیغ می کند، در شبکه های اجتماعی دست به دست شده است. در واقع، این ویدئو نمونه بارز این مسئله می باشد که چگونه می توان از هوش مصنوعی سوء استفاده کرد.
بنابراین، از آنجایی که هوش مصنوعی در حال حاضر فراگیر شده نه تنها پلیس بلکه مردم هم باید از خطرات احتمالی هوش مصنوعی در آینده نزدیک آگاه باشند.
در دنیای امروز، هوش مصنوعی به طور فزاینده ای می تواند وظایف و نقش هایی را که قبلاً توسط انسان ها انجام می شد را بر عهده بگیرد.
برخی از افراد در مورد پیشرفتها در زمینه هوش مصنوعی آگاهی دارند، اما افرادی هم هستند که فعلا از خطرات احتمالی ناشی از پیشرفتهای سریع در این زمینه بیاطلاع می باشند..
اگر هوش مصنوعی توسط سندیکاها در فعالیتهای غیرقانونی بصورت گسترده مورد استفاده قرار گیرد، همه چیز در بخش مالی و هر سرویسی که آنلاین شده، ممکن است با خطر نفوذ مواجه شود.
هوش مصنوعی میتواند در ایجاد الگوریتمهایی استفاده شود که قادر به هک کردن سیستمهای رایانهای هستند، الگوریتمهایی که میتوانند برای تجزیه و تحلیل دادهها و دستکاری نتایج استفاده شوند و منجر به ایجاد اختلال در بازارهای مالی می شوند.
هوش مصنوعی میتواند در دستکاریهای ویدئویی و صوتی پیشرفته مورد استفاده قرار گیرد که این فرایند میتواند منجر به سرقت هویت و ایجاد ویدیوهای دیپ فیک شود. در این سناریو، احتمالات نامحدود می باشد زیرا سندیکاهای جنایی می توانند از تصاویر، ویدئوها یا صداهای جعلی برای فریب دادن مردم و سازمان ها استفاده کنند.
مجرمان میتوانند از چنین دیپفیکهایی در پروندههای جعلی آدمربایی در ازای دریافت باج استفاده کنند، برخی حتی میتوانند از این دیپ فیک ها برای ایجاد تصاویر زشت یا مستهجن از قربانیان استفاده کنند که باز هم میتواند برای باجگیری استفاده شود..
با ایجاد هویت های جعلی متقاعد کننده از طریق عکس ها یا فیلم ها، سندیکاها حتی می توانند به عنوان افرادی ظاهر شوند که درخواست پول می کنند یا حتی قربانیان را فریب می دهند تا فکر کنند که یکی از اعضای خانواده آنها در خطر می باشد. دیپفیکها حتی میتوانند در انتشار تبلیغات و اخبار جعلی استفاده شوند که این امر میتواند منجر به تشویش عمومی شود.
هوش مصنوعی می تواند برای ارتکاب جرایم اقتصادی هم استفاده شود. برای مثال، سندیکا از فناوری دیپ فیک هوش مصنوعی برای درخواست وام هم استفاده می کنند.
در هنگ کنگ ، پلیس سندیکایی را کشف کرده که از هشت کارت شناسایی سرقت شده برای ۹۰ درخواست وام و ۵۴ ثبت حساب بانکی استفاده کرده است.
دانشمندان هوش مصنوعی در حال بحث در مورد محاسبات کوانتومی هستند. این نوع محاسبات میتواند امکان رمزگشایی فراهم کند و این مسئله به نوبه خود ممکن است باعث شود که تمام فناوریهای رمزنگاری باینری که در حال حاضر مورد استفاده قرار میگیرند، بیاثر شوند یا قابلیت امنیتی آنها تخریب شود.
بهترین دفاعی که مردم علیه هوش مصنوعی می توانند بکار بگیرند، دانش و آگاهی می باشد. اگر عموم مردم از نحوه استفاده از هوش مصنوعی آگاه باشند، بسیار محتاط خواهند بود و به راحتی توسط سندیکاهایی که از چنین تاکتیک هایی استفاده می کنند فریب نخواهند خورد.
پایان پیام/
بیشتر بخوانید: هوش مصنوعی، خطری برای مسکونی سازی مریخ





















