جدول المحتويات:

التزييف العميق: تم تعليم Neuroset إنشاء مزيفات الصوت والفيديو
التزييف العميق: تم تعليم Neuroset إنشاء مزيفات الصوت والفيديو

فيديو: التزييف العميق: تم تعليم Neuroset إنشاء مزيفات الصوت والفيديو

فيديو: التزييف العميق: تم تعليم Neuroset إنشاء مزيفات الصوت والفيديو
فيديو: "فرس البحر العائم"..مشروع منازل طافية في دبي 2024, يمكن
Anonim

لإنشاء صورة إخبارية "فردية" لأي منا وتزوير التقارير الإعلامية المختارة فيها ، تكفي جهود أحد المبرمجين اليوم. أخبر متخصصون في الذكاء الاصطناعي والأمن السيبراني Izvestia عن هذا الأمر.

في الآونة الأخيرة ، قدروا أن هذا يتطلب عمل فرق متعددة. أصبح هذا التسريع ممكنًا مع تطوير تقنيات الهجمات على الشبكات العصبية وتوليد الصوت والفيديو المزيفين باستخدام برامج لإنشاء "التزييف العميق". تعرضت صحيفة إزفستيا مؤخرًا لهجوم مماثل ، عندما نشرت ثلاث بوابات إخبارية ليبية في وقت واحد رسالة يُزعم أنها ظهرت في أحد الأعداد. وفقًا للخبراء ، في غضون 3-5 سنوات ، يمكننا توقع غزو المتلاعبين الآليين ، والذي سيكون تلقائيًا قادرًا على إنشاء الكثير من المنتجات المقلدة.

عالم جديد شجاع

هناك المزيد والمزيد من المشاريع التي تضبط صورة المعلومات مع تصور مستخدمين محددين. أحد الأمثلة على عملهم هو الإجراء الأخير لثلاث بوابات ليبية ، والتي نشرت خبرًا يُزعم أنه نُشر في عدد صحيفة Izvestia في 20 نوفمبر / تشرين الثاني. قام مبتكرو المزيفة بتعديل الصفحة الأولى للصحيفة ، ونشروا عليها رسالة عن المفاوضات بين المشير خليفة حفتر ورئيس وزراء حكومة الوفاق الوطني فايز السراج. المزيف ، بخط إزفستيا ، كان مصحوبًا بصورة للزعيمين تم التقاطها في مايو 2017. تم قطع الملصق الذي يحمل شعار المنشور من العدد الفعلي المنشور في 20 نوفمبر ، وجميع النصوص الأخرى على الصفحة من عدد 23 أكتوبر.

من وجهة نظر المتخصصين ، في المستقبل المنظور ، يمكن أن تتم مثل هذه التزويرات تلقائيًا.

برنامج ترومان شو - 2019: كيف علمت الشبكات العصبية تزييف صورة الأخبار
برنامج ترومان شو - 2019: كيف علمت الشبكات العصبية تزييف صورة الأخبار

يوري فيلسيتر ، دكتور في العلوم الفيزيائية والرياضية ، أستاذ في الأكاديمية الروسية للعلوم ، رئيس قسم "GosNIIAS" في FSUE ، قال ازفستيا. - لذلك ، من المحتمل جدًا أنه في المستقبل القريب ، لن تتمكن الدولة والشركات الكبرى ، ولكن الأفراد العاديون ، من التنصت والتجسس علينا ، فضلاً عن التلاعب بالواقع. في السنوات القادمة ، سيكون من الممكن ، من خلال تحليل تفضيلات المستخدم ، التأثير عليه من خلال موجز الأخبار والتزوير الذكي للغاية.

وفقًا لـ Yuri Vilsiter ، توجد بالفعل التقنيات التي يمكن استخدامها لمثل هذا التدخل في البيئة العقلية. من الناحية النظرية ، يمكن توقع غزو الروبوتات الروبوتية في غضون سنوات قليلة ، كما قال. قد تكون النقطة المقيدة هنا هي الحاجة إلى جمع قواعد بيانات كبيرة لأمثلة لاستجابات أشخاص حقيقيين للمنبهات الاصطناعية مع تتبع العواقب طويلة المدى. من المرجح أن يتطلب هذا التعقب عدة سنوات أخرى من البحث قبل الحصول على الهجمات المستهدفة باستمرار.

هجوم الرؤية

يتفق Alexey Parfentiev ، رئيس قسم التحليلات في SearchInform ، أيضًا مع Yuri Vilsiter. وفقًا له ، يتوقع الخبراء بالفعل هجمات على الشبكات العصبية ، على الرغم من عدم وجود مثل هذه الأمثلة عمليًا الآن.

- يعتقد باحثون من شركة Gartner أنه بحلول عام 2022 ، ستهدف 30٪ من جميع الهجمات الإلكترونية إلى إفساد البيانات التي يتم تدريب الشبكة العصبية عليها وسرقة نماذج التعلم الآلي الجاهزة. ثم ، على سبيل المثال ، يمكن للمركبات غير المأهولة أن تبدأ فجأة في الخلط بين المشاة والأجسام الأخرى. ويعتقد الخبير أننا لن نتحدث عن المخاطر المالية أو السمعة ، ولكن عن حياة وصحة الناس العاديين.

يتم تنفيذ الهجمات على أنظمة الرؤية الحاسوبية كجزء من البحث الآن. الغرض من مثل هذه الهجمات هو جعل الشبكة العصبية تكتشف شيئًا غير موجود في الصورة. أو ، على العكس من ذلك ، عدم رؤية ما تم التخطيط له.

برنامج ترومان شو - 2019: كيف علمت الشبكات العصبية تزييف صورة الأخبار
برنامج ترومان شو - 2019: كيف علمت الشبكات العصبية تزييف صورة الأخبار

أوضح فلاديسلاف توشكانوف ، محلل الويب في Kaspersky Lab ، أن "أحد الموضوعات التي يتم تطويرها بنشاط في مجال تدريب الشبكات العصبية هو ما يسمى بهجمات الخصومة (" هجمات الخصومة. - إزفستيا) ". - في معظم الحالات ، تستهدف أنظمة الرؤية الحاسوبية. لتنفيذ مثل هذا الهجوم ، في معظم الحالات ، تحتاج إلى الوصول الكامل إلى الشبكة العصبية (ما يسمى بهجمات الصندوق الأبيض) أو نتائج عملها (هجمات الصندوق الأسود). لا توجد طرق يمكن أن تخدع أي نظام رؤية حاسوبي في 100٪ من الحالات. بالإضافة إلى ذلك ، تم بالفعل إنشاء أدوات تسمح لك باختبار الشبكات العصبية لمقاومة هجمات الخصم وزيادة مقاومتها.

في سياق مثل هذا الهجوم ، يحاول المهاجم بطريقة ما تغيير الصورة التي تم التعرف عليها بحيث لا تعمل الشبكة العصبية. في كثير من الأحيان ، يتم فرض ضوضاء على الصورة ، على غرار ما يحدث عند التصوير في غرفة ضعيفة الإضاءة. عادة لا يلاحظ الشخص مثل هذا التداخل جيدًا ، لكن الشبكة العصبية تبدأ في التعطل. ولكن من أجل تنفيذ مثل هذا الهجوم ، يحتاج المهاجم إلى الوصول إلى الخوارزمية.

وفقًا لستانيسلاف أشمانوف ، المدير العام لشركة Neuroset Ashmanov ، لا توجد حاليًا طرق للتعامل مع هذه المشكلة. بالإضافة إلى ذلك ، هذه التقنية متاحة لأي شخص: يمكن للمبرمج العادي استخدامها عن طريق تنزيل البرامج مفتوحة المصدر الضرورية من خدمة Github.

برنامج ترومان شو - 2019: كيف علمت الشبكات العصبية تزييف صورة الأخبار
برنامج ترومان شو - 2019: كيف علمت الشبكات العصبية تزييف صورة الأخبار

يعتقد أشمانوف أن الهجوم على شبكة عصبية هو تقنية وخوارزميات لخداع الشبكة العصبية ، مما يجعلها تؤدي إلى نتائج خاطئة ، وفي الواقع كسرها مثل قفل الباب. - على سبيل المثال ، من السهل جدًا الآن جعل نظام التعرف على الوجوه يعتقد أنه ليس أنت ، ولكن أرنولد شوارزنيجر أمامه - يتم ذلك عن طريق مزج إضافات غير محسوسة للعين البشرية في البيانات القادمة إلى الشبكة العصبية. نفس الهجمات ممكنة لأنظمة التعرف على الكلام وتحليله.

الخبير متأكد من أن الأمور ستزداد سوءًا - لقد ذهبت هذه التقنيات إلى الجماهير ، والمحتالون يستخدمونها بالفعل ، ولا توجد حماية ضدهم. حيث لا توجد حماية ضد الإنشاء الآلي لتزوير الفيديو والصوت.

مزيفة عميقة

تقنيات Deepfake القائمة على التعلم العميق (تقنيات التعلم العميق للشبكات العصبية. - Izvestia) تشكل بالفعل تهديدًا حقيقيًا. يتم إنشاء مقاطع الفيديو أو الصوت المزيفة عن طريق تحرير أو تراكب وجوه الأشخاص المشهورين الذين يُفترض أنهم ينطقون النص الضروري ويلعبون الدور الضروري في الحبكة.

يقول Andrey Busargin ، مدير قسم حماية العلامة التجارية المبتكرة والملكية الفكرية في Group-IB: "يتيح لك برنامج Deepfake استبدال حركات الشفاه والكلام البشري بالفيديو ، مما يخلق شعوراً بالواقعية لما يحدث". - المشاهير المزيفون "يعرضون" المستخدمين على الشبكات الاجتماعية للمشاركة في سحب جوائز قيمة (الهواتف الذكية والسيارات والمبالغ المالية) ، إلخ. غالبًا ما تؤدي الروابط من منشورات الفيديو هذه إلى مواقع احتيالية وتصيد احتيالي ، حيث يُطلب من المستخدمين إدخال معلومات شخصية ، بما في ذلك تفاصيل البطاقة المصرفية. تشكل مثل هذه المخططات تهديدًا لكل من المستخدمين العاديين والشخصيات العامة المذكورة في الإعلانات التجارية. يبدأ هذا النوع من الاحتيال في ربط صور المشاهير بعمليات الاحتيال أو السلع المُعلن عنها ، وهذا هو المكان الذي نواجه فيه ضررًا شخصيًا للعلامة التجارية ، كما يقول.

برنامج ترومان شو - 2019: كيف علمت الشبكات العصبية تزييف صورة الأخبار
برنامج ترومان شو - 2019: كيف علمت الشبكات العصبية تزييف صورة الأخبار

هناك تهديد آخر مرتبط باستخدام "أصوات مزيفة" للتزوير عبر الهاتف. على سبيل المثال ، في ألمانيا ، استخدم مجرمو الإنترنت تقنية التزييف العميق للصوت لجعل رئيس شركة تابعة من المملكة المتحدة يحول على وجه السرعة 220 ألف يورو في محادثة هاتفية ، متظاهرًا بأنه مدير شركة.في حساب مورد مجري. اشتبه رئيس الشركة البريطانية في وجود خدعة عندما طلب "رئيسه" أمرًا ماليًا ثانيًا ، لكن الاتصال جاء من رقم نمساوي. بحلول هذا الوقت ، تم بالفعل تحويل الشريحة الأولى إلى حساب في المجر ، حيث تم سحب الأموال إلى المكسيك.

اتضح أن التقنيات الحالية تسمح لك بإنشاء صورة إخبارية فردية مليئة بالأخبار المزيفة. علاوة على ذلك ، سيكون من الممكن قريبًا التمييز بين المنتجات المقلدة والفيديو الحقيقي والصوت فقط من خلال الأجهزة. وفقًا للخبراء ، من غير المرجح أن تكون التدابير التي تحظر تطوير الشبكات العصبية فعالة. لذلك ، سنعيش قريبًا في عالم سيكون من الضروري فيه إعادة فحص كل شيء باستمرار.

أكد يوري فيلسيتر: "نحن بحاجة إلى الاستعداد لهذا ، ويجب قبول ذلك". - الإنسانية ليست المرة الأولى التي تنتقل فيها من حقيقة إلى أخرى. يختلف عالمنا وطريقة حياتنا وقيمنا اختلافًا جذريًا عن العالم الذي عاش فيه أسلافنا قبل 60.000 عام ، و 5000 عام ، و 2000 عام ، وحتى 200-100 عام. في المستقبل القريب ، سيُحرم الشخص إلى حد كبير من الخصوصية ، وبالتالي يُجبر على إخفاء أي شيء والتصرف بأمانة. في الوقت نفسه ، لا يمكن اعتبار أي شيء في الواقع المحيط وفي شخصيته على أساس الإيمان ، يجب استجواب كل شيء وإعادة فحصه باستمرار. لكن هل سيكون هذا الواقع المستقبلي رهيباً؟ رقم. سيكون الأمر مختلفًا تمامًا.

موصى به: