به گزارش سرویس بین الملل پایگاه خبری عدل البرز به نقل از BBC، شرکتهای فناوری بزرگ مانند آمازون، گوگل و مایکروسافت، به توافق رسیدهاند تا در مقابل آسیبهایی که ممکن است از طریق هوش مصنوعی در انتخابات ایجاد شود، اقدام کنند و این نوع فعالیتهایی را که میتوانند فرایندهای انتخاباتی را تحتتاثیر قرار دهد، کنترل و از آنها جلوگیری کنند.
این بیست شرکت توافقنامه ای را امضا کرده اند که آنها را متعهد به مبارزه با محتوای فریبنده برای رأی دهندگان می کند. آنها قصد دارند با بکارگیری فناوریها، مطالب گمراهکننده را شناسایی و با آنها مقابله کنند.
اما یکی از کارشناسان صنعت معتقد است که این توافق داوطلبانه، کمک چندانی به جلوگیری از ارسال محتوای مضر نخواهد کرد.
این توافقنامه فناوری برای مبارزه با استفاده فریبنده و گمراه کننده از هوش مصنوعی در انتخابات ۲۰۲۴ در کنفرانس امنیتی مونیخ (آلمان) روز جمعه اعلام شد.
این موضوع به دلیل اینکه بر اساس برآوردها تا چهار میلیارد نفر امسال در کشورهایی مانند ایالات متحده، انگلستان و هند رأی خواهند داد، به شدت مورد توجه قرار گرفته است.
از جمله تعهدات این توافقنامه، تعهد به توسعه فناوری برای «کاهش خطرات» مربوط به محتوای انتخاباتی فریبنده تولید شده توسط هوش مصنوعی و ارائه شفافیت برای عموم در مورد اقدامات شرکتها می باشد.
مراحل دیگر شامل به اشتراک گذاشتن بهترین روش با یکدیگر و آموزش به مردم در مورد چگونگی تشخیص محتوای دستکاری شده می باشد.
امضاکنندگان شامل پلتفرم های رسانه های اجتماعی X ، اسنپ، ادوبی و متا، اینستاگرام و واتس اپ هستند.
اقدامات پیشگیرانه
برخی از کارشناسان معتقدند که این توافق دارای کاستی هایی هم می باشد.
شرکت ها باید به جای اینکه منتظر بمانند تا محتوا پست شود و سپس به دنبال حذف آن باشند، “اقدامات پیشگیرانه” بیشتری انجام دهند. این اقدامات میتواند در جلوگیری از انتشار محتواهای مضر و عدم طولانی شدن زمان حضور آنها در پلتفرمها مؤثر باشد.
یکی از کارشناسان معتقد است که این توافقنامه در تعریف دقیق و جزئیات بیشتر در مورد محتوای مضر دارای نقص می باشد. برای مثال چگونه یک سیاستمدار پاکستانی به نام عمران خان، در حالی که در زندان بوده، از هوش مصنوعی برای ارائه سخنرانیهایش استفاده کرده است. این مثال نشان میدهد که محتوای هوش مصنوعی میتواند به شیوههای غیرمنتظرهای مورد استفاده قرار بگیرد که ممکن است تعریف محتوای آن در توافق نامه مربوطه دشوار شود.
امضاکنندگان این توافقنامه ، محتوایی را هدف قرار خواهند داد که «به شکل فریبندهای ظاهر، صدا یا عملکرد افراد کلیدی در انتخابات را جعل یا تغییر میدهد».
همچنین به دنبال برخورد با صداها، تصاویر یا ویدئوهایی هستند که اطلاعات نادرستی در مورد زمان، مکان و نحوه رای دادن به رای دهندگان ارائه می دهند.
هوش مصنوعی تهدیدی برای “تقویت” اطلاعات غلط در انتخابات می باشد.
گوگل و متا قبلاً سیاستهای خود را در مورد تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی در تبلیغات سیاسی تنظیم کردهاند که از تبلیغکنندگان میخواهد در صورت استفاده از دیپفیک یا محتوایی که توسط هوش مصنوعی دستکاری شده، این موضوع را اعلام کنند.
پایان پیام/





















