عکس <%# hl_post_title.Text %>


بر اساس پژوهشی که در لندن انجام شده، فناوری‌های جعل عمقی صدا به مرحله‌ای رسیده‌اند که تولید نمونه‌های صوتی غیرواقعی را آنچنان مشابه صدای انسان می‌کنند که تشخیص آن برای اغلب افراد بسیار دشوار است. 

در این مطالعه، از شرکت‌کنندگان خواسته شد تا به نمونه‌هایی از صداهای واقعی انسان و نیز صداهای مصنوعی تولیدشده توسط دو نوع مختلف از ابزارهای پیشرفته سنتز صدا گوش دهند. برخی از این صداهای مصنوعی با هدف تقلید مستقیم از افراد واقعی شبیه‌سازی شده بودند و برخی دیگر با استفاده از مدل‌های زبانی بزرگ و بدون الگوبرداری از فردی خاص تولید شده بودند. وظیفه شرکت‌کنندگان ارزیابی میزان واقعی‌بودن و باورپذیری این صداها بود. 

نادین لاوان، مدرس ارشد روانشناسی دانشگاه کوئین مری لندن، در همین رابطه هشدار داد: «ما باید درک کنیم که مردم چگونه واقعیت مصنوعی این صداهای بیش‌از اندازه واقع‌گرا را پردازش می‌کنند.» وی افزود: «رسیدن فناوری هوش مصنوعی به نقطه‌ای که بتواند گفتاری طبیعی و مشابه انسان تولید کند، تنها مسئله زمان بود.» لاوان با اشاره به تولید این صداهای جعلی با استفاده از «نرم‌افزارهای موجود در بازار» تأکید کرد: «این فرآیند برای تولید صداهایی غیرقابل تشخیص، به حداقل تخصص، تنها چند دقیقه ضبط صدا از فرد هدف و عملاً بدون هیچ هزینه مالی قابل‌توجهی نیاز داشت.»