The53rd Eid Al Etihad Logo
مرئيات

تزييف الصوت بالذكاء الاصطناعي.. نصائح تحميك من الاحتيال

عليك الحذر جيدا عند استقبال الاتصالات الهاتفية الطارئة، خاصةً التي يُطلب منك فيها تحويل أموال، أو الإدلاء بمعلومات حسّاسة، حتى لو كان الصوت كصوت أقاربك أو أصدقائك، ففي عصر الذكاء الاصطناعي بات التزييف يحيط بالناس في كل أمورهم.
وخلال الآونة الأخيرة، انتشر نوع من الاحتيال بواسطة تطبيقات الذكاء الاصطناعي يسمّى “احتيال التزييف” أو “التلاعب الصوتي”، لكن يُمكنك النجاة منه لو انتبهت لهذه المستجدات، واتبعت النصائح التي يُدلي بها خبيران في الأمن السيبراني وتكنولوجيا المعلومات لموقع “سكاي نيوز عربية”.
كانت شركة “أوبن إيه آي”، المتخصصة في الذكاء الاصطناعي التوليدي، ومبتكرة برنامج المحادثة الشهير “تشات جي بي تي”، عرضت، مارس الماضي، أداة لاستنساخ الصوت سيكون استخدامها محدودا لتفادي عمليات الاحتيال.
والأداة التي سُمّيت بـ”فويس إنجين” أو “محرك الصوت” قادرة على إعادة إنتاج صوت شخص من خلال عينة صوتية مدتها 15 ثانية، حسب ما ذكر بيان لـ”أوبن إيه آي” تطرّق إلى نتائج اختبار أجري على نطاق صغير.

وأضاف البيان: “ندرك أن القدرة على توليد أصوات تشبه أصوات البشر خطوة تنطوي على مخاطر كبيرة، خصوصا في عام الانتخابات هذا”، وأنه لذلك: “نعمل مع شركاء أميركيين ودوليين من حكومات ووسائل إعلام ومجالات الترفيه والتعليم والمجتمع المدني وقطاعات أخرى، ونأخذ ملاحظاتهم في الاعتبار”.
وفق خبير الأمن السيبراني وتكنولوجيا المعلومات، محمد خليف، فإنّه بات “مِن السهل جدا” استخدام الذكاء الاصطناعي لإجراء اتصالات هاتفية بأصوات تبدو مألوفة للأشخاص، وهذا يُسمّى بـ”التزييف الصوتي” أو “التلاعب الصوتي”.
وعن طريقة صُنع هذا الصوت المزيّف، يقول خليف إنه يتم ببرامج الذكاء الاصطناعي لتقليد أصوات معروفة أو مأخوذة من وسائل التواصل الاجتماعي.
ومِن الأمور الخطرة التي يُستخدم فيها هذا التزييف، الاحتيال على الضحايا في طلبات مالية عاجلة، بإيهامهم أن المتصل شخص معروف لهم، كما يوضّح خليف، الذي يُحذر من أن هذه الاستخدامات قد تُفقد الأشخاص الثقة في العالم الرقمي؛ ما يؤثّر بالسلب على وتيرة التحوّل الرقمي.
ويدعو خبير الأمن السيبراني وتكنولوجيا المعلومات، تامر محمد، إلى توخي الحذر في الاتصالات التي نتلقّاها، قائلا إن “الاتصالات الهاتفية بواسطة الذكاء الاصطناعي انتشرت شكل كبير جدا، وتوجد تطبيقات تنفّذها دون الحاجة لأن يمتلك المحتال خبرة”.
جدير بالذكر أن عمليات الاحتيال وصلت إلى أشهر الشخصيات في العالم، ومن ذلك أن مستشارا يعمل في الحملة الرئاسية لأحد المنافسين في الحزب الديمقراطي للرئيس الأميركي، جو بايدن، ابتكر خلال الانتخابات التمهيدية للانتخابات الرئاسية، برنامجا آليا انتحل شخصية بايدن، ودعا الصوت المزيّف الناخبين لعدم التصويت في انتخابات نيوهامبشير.
كما تم استنساخ أصوات مشاهير مثل الفنان الإنجليزي ستيفن فراي، وعمدن لندن صادق خان، ونُسب إليهما تصريحات سببت لهما إزعاجا أو حرجا، كم تعرّض أحد المديرين التنفيذيين، الذي لم يذكر اسمه، لاحتيال تسبّب في أن يحوّل 243 ألف دولار إلى المحتال بعد تلقي مكالمة هاتفية مزيفة، وفقا لما ذكرته جريدة “ديلي ميل” البريطانية.
لمواجهة هذا التهديد الجديد، يعرض محمد خليف وتامر محمد هذه النصائح عند تلقّي المكالمات الهاتفية، أو الاستماع إلى أصوات دون أن نرى أصحابها:
يجب التشكّك دوما في صحة الاتصال، حتى لو كان الصوت مألوفا، خصوصا عندما يبدو الأمر طارئا.
حاول التواصل مع الشخص الذي يُفترض أنه المتصل عبر وسيلة اتصال مختلفة تتحقق منها.
احذر أن تقدّم معلومات شخصية أو بيانات مالية خلال مكالمة لم تبدأها أنت بنفسك.
عدم الدخول على رابط حساب أو موقع إلكتروني غير معروف؛ لأنه من خلاله يتم اختراق الهاتف، ويستخدم التسجيلات الصوتية ويعرف صوت الشخص.
عدم الموافقة على شروط أي برنامج دون التأكّد منها ومعرفة التطبيق جيّدا.

اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى