ایندیپندنت فارسی
صدای پشت خط تلفن به طرز ترسناکی واقعی بودــ زنی آمریکایی صدای هقهق گریه دخترش را شنید و بعد مردی گوشی را گرفت و باج خواست. اما صدای دختر با هوش مصنوعی شبیهسازی شده بود و آدمربایی دروغ بود.
به گفته کارشناسان، بزرگترین خطر هوش مصنوعی این است که میتواند مرزهای بین واقعیت و دروغ را از بین ببرد و فناوری ارزان و موثری در اختیار خلافکاران سایبری قرار میدهد تا اطلاعات جعلی پخش کنند.
به گزارش خبرگزاری فرانسه، در تازهترین نوع کلاهبرداری که مقامهای آمریکا را حیرتزده کرده است، کلاهبرداران با استفاده از ابزارهای شبیهسازی صدا و هوش مصنوعی، صدای اعضای خانواده افراد را تقلید میکنند تا از آنها سرقت کنند.
«کمکم کن، مامان، لطفا کمکم کن.» جنیفر دیاستفانو صدای دخترش را از آن سوی خط شنید.
دیاستفانو صد درصد مطمئن بود دختر ۱۵ سالهاش که رفته بود اسکی، پریشان و مضطرب است.
تماس از شمارهای ناشناس بود و کلاهبردار گوشی را گرفت و از دیاستفانو یک میلیون دلار خواست.
ماجرا ظرف چند دقیقه و پس از تماس دیاستفانو با دخترش تمام شد. اما این موضوع زنگ خطر را در مورد سوءاستفاده احتمالی خلافکاران سایبری از هوش مصنوعی به صدا درآورد.
وسیم خالد، مدیرعامل بلکبرد ایآی، به خبرگزاری ایافپی میگوید: «صدای شبیهسازیشده هوش مصنوعی را اکنون تقریبا نمیتوان از صدای انسان تشخیص داد و به افرادی مانند کلاهبرداران امکان میدهد از قربانیان اطلاعات و پول سرقت کنند.»
یک جستوجوی ساده اینترنتی طیف گستردهای از اپلیکیشنها را نشان میدهد که بسیاری از آنها رایگان در دسترساند، و با استفاده از نمونهای کوچک، گاهی فقط چند ثانیه از صدای فرد که بهراحتی میشود از پستهای آنلاین برداشت، صدا را شبیهسازی میکنند.
خالد میگوید: «با یک نمونه صوتی کوچک، میشود از صدای شبیهسازیشده هوش مصنوعی استفاده کرد تا پیام صوتی گذاشت. حتی میتوان برای تغییر صدا در تماس تلفنی به کار برد.»
او در ادامه میافزاید: «کلاهبرداران میتوانند از لهجه و جنسیت متفاوت استفاده کنند و حتی طرز صحبت عزیزانتان را تقلید کنند. [این فناوری] امکان جعل عمیق باورپذیر را فراهم میکند.»
به گزارش ایافپی، بر اساس نتایج نظرسنجی مکآفی لبز از ۷۰۰۰ نفر در ۹ کشور جهان، از هر چهار نفر یک نفر با کلاهبرداری شبیهسازی صدا با استفاده از هوش مصنوعی مواجه شده یا کسی را میشناسد که این تجربه را داشته است.
هفتاد درصد شرکتکنندگان در نظرسنجی گفتند که مطمئن نیستند بتوانند «تفاوت میان صدای شبیهسازیشده و صدای واقعی را تشخیص دهند».
افزایش این نوع کلاهبرداری نگرانی مقامهای آمریکایی را برانگیخته است. کمیسیون فدرال تجارت آمریکا در ماه مارس هشدار داد: «با شما تماس میگیرند. صدایی هراسان از آن سوی خط میآید. نوهتان است. میگوید توی دردسر بزرگی افتاده استــ ماشین را اوراق کرده و سر از زندان درآورده است. اما با فرستادن پول میتوانید کمکش کنید. دقیقا صدای خودش است. چطور ممکن است کلاهبرداری باشد؟ شبیهسازی صدا، اینطوری ممکن است.»
مسئول بخش فناوری شرکت سرمایهگذاری تیم۸ به ایافپی میگوید: «بهسرعت داریم به نقطهای میرسیم که نمیتوانید به آنچه در اینترنت میبینید اعتماد کنید.»
«به فناوری جدیدی نیاز داریم تا بفهمیم آیا با فردی که داریم با او صحبت میکنیم واقعا همان کسی است که داریم با او صحبت میکنیم.»
برگرفته از ایندیپندنت فارسی