حذّر رئيس الإدارة الفرعية للعمليات الفنية بإدارة مكافحة الإرهاب للحرس الوطني المقدم محمد لزهر خليفي، من ان الذكاء الاصطناعي، قادر اليوم على فبركة الصوت لا الصورة فقط.
واضاف المقدم، في تصريح لموزاييك اليوم الاربعاء 15 جانفي 2025، أن تقليد الصوت باستعمال الذكاء الاصطناعي بلغ بنسبة 98 بالمائة، وهي إشكالية كبيرة، وفق تعبيره.
وذكر على سبيل المثال حادثة جدت في كوريا الجنوبية سنة 2023 للاستيلاء على وصية شخص متوفي حيث قاموا باستعمال صوته والاستيلاء على مبلغ 1.2 مليون دولار .