خبير تقني إيرلندي يحذّر: مقاطع الفيديو المُنتجة بالذكاء الاصطناعي قد تشعل «حربًا أهلية» أو تتسبب في مقتل أشخاص
حذّر الخبير التقني الإيرلندي دان بورسيل، رئيس شركة «Ceartas»، من أن مقاطع الفيديو المُولَّدة بالذكاء الاصطناعي باتت تمتلك القدرة على إثارة حرب أهلية أو التسبب في مقتل أشخاص، مشيرًا إلى أنه أصبح «شبه مستحيل التمييز بين المحتوى الحقيقي والمحتوى المصنوع بواسطة الحاسوب».
وقال بورسيل، إن الأشخاص «الذين يفتقرون للمهارات التقنية» قد يشاهدون محتوى زائفًا تم إنتاجه عبر الذكاء الاصطناعي ويعتقدون أنه حقيقي، ثم ينقلونه لآخرين، مما يخلق «غرفة صدى» تحول الأكاذيب إلى حقائق في نظر المتلقين.
وأشار إلى أن هذا النوع من المحتوى أصبح «سلاحًا» يستخدمه كل من اليسار واليمين لخدمة رواياتهم السياسية.
وأوضح أن برامج مثل (Sora 2) — التي طوّرها صُنّاع «ChatGPT» — تُمكّن أي شخص من إنتاج فيديوهات فائقة الواقعية بالاعتماد فقط على نصوص وصور بسيطة، ثم نشرها على «تيك توك» و«إنستغرام» و«فيسبوك»، حيث يفتقر معظم المستخدمين إلى القدرة على اكتشاف زيفها.
وأضاف: «على الإنترنت، الإدراك يتحوّل إلى حقيقة. الناس لم يعودوا يبحثون عن الحقيقة، بل عن الرواية التي تدعم موقفهم، حتى لو كانت غير حقيقية».
وأشار بورسيل إلى مثال متكرر عن والده، الذي «لو شاهد فيديو زائفًا لشخصية سياسية يقوم بفعل ما، فلن يشكّ للحظة بأنه من إنتاج الذكاء الاصطناعي»، موضحًا أن ذلك قد يؤدي إلى انتشار معلومات كاذبة على نطاق واسع، ويؤثر حتى على خيارات التصويت والقرارات السياسية.
وذكرت صحيفة «Irish Mirror»، أنها تمكّنت بسهولة من العثور على عشرات المقاطع المُولّدة بالذكاء الاصطناعي على مختلف منصات التواصل، بما في ذلك مقاطع تُظهر عناصر من الشرطة وموظفين في جمارك مطار دبلن، بعضها واضح أنه زائف وبعضها «يصعب اكتشافه».
وأكد بورسيل، أنه سيأتي وقت «يستحيل فيه التمييز بين الحقيقي والمزيف»، خاصة مع استخدام صُنّاع المحتوى الزائف للأحداث الكبرى، مثل نشر لقطات «كاميرات مراقبة» مزعومة بعد عملية سرقة متحف اللوفر في باريس، أو فيديو نشرة إخبارية مُزيف من «RTÉ» يزعم انسحاب كاثرين كونولي من سباق الرئاسة.
وقال إن الفيديو الإخباري المزيف الخاص بـ«RTÉ» كان «عالي الجودة بشكل مدهش»، مؤكدًا أن الأمر يصبح أخطر عندما يُشاهَد المحتوى عبر التلفاز، لأن «الناس يعتقدون عادة أن كل ما يظهر على التلفزيون حقيقي».
وأشار إلى أن اكتشاف زيف الفيديو «لا فائدة منه» إذا كان قد شاهده بالفعل «27 مليون شخص»، مضيفًا: «لقد فُتح صندوق باندورا بالفعل، ولن يكون هناك طريق للعودة».
وتابع: «يمكن للذكاء الاصطناعي إشعال حرب أهلية، ويمكن استخدامه كآلة دعاية تقلب حكومات، ويمكنه تشويه سمعة أشخاص واتهامهم بجرائم خطيرة ضد الأطفال، وقد يؤدي ذلك إلى مقتلهم».
وأضاف: «الناس سيواصلون استخدامه لترويج رواياتهم، حتى وهم يعرفون أنها ليست حقيقية».
وفي سياق سؤاله عن صانعي هذه المقاطع قال: «غالبًا مجرد شخص على هاتفه، ربما طفل، أو امرأة في صالون تجميل، أو عامل في موقع بناء… أو ربما الأشخاص الذين سرقوا متحف اللوفر في الأساس».
وقال النائب عن مقاطعة كيلدير الشمالية، ناويز أو سيرويل، الذي حذر من مخاطر الذكاء الاصطناعي داخل البرلمان، إن ما يحدث «خطير للغاية»، مشيرًا إلى أن «جهات خبيثة تستغل أدوات الذكاء الاصطناعي لنشر معلومات مضللة والإساءة إلى سمعة الأشخاص».
ودعا إلى «تشريع عاجل» لمنع هذا السلوك، قائلاً: «وجوه الناس وأصواتهم وهوياتهم تُسرق أمام أعيننا، والقانون لم يعد قادرًا على مواكبة سرعة التكنولوجيا».
وأكد ضرورة تشغيل «المكتب الوطني للذكاء الاصطناعي» في أسرع وقت لضبط الاستخدام ومواجهة إساءة الاستعمال.
وأضاف: «شركات التكنولوجيا مثل Google (بنظام VEO 3) وX (بنظام Grok) وOpenAI (بنظام Sora) مطالبة بالتحرك. لديهم الموارد والخبرة لوقف هذه التجاوزات، لكن المحتوى المضلل يستمر في الانتشار بلا رقابة».
وعبر عن قلقه من مقاطع مزيفة تُظهر الشرطة، قائلًا إن «هذه المقاطع تقوّض الثقة في واحدة من أهم مؤسسات الدولة». كما اعتبر أن نشرة «RTÉ» المزيفة عن كاثرين كونولي «تدخل مباشر في الانتخابات»، مؤكدًا أن «الديمقراطية نفسها قد تتعرض للتشويه بفعل هذه التقنية».
وعند التواصل مع الشرطة بشأن مقاطع الفيديو، قال متحدث رسمي، إن الشرطة لا تعلق عادة على محتوى منشور عبر الإنترنت ما لم يكن هناك «أولوية شرطية» تتطلب ذلك، لكنه أكد أن الشرطة «واعية تمامًا بتزايد المحتوى المُنتج عبر الذكاء الاصطناعي».
وأوضح أن الجناة يستغلّون أدوات الذكاء الاصطناعي لإنتاج صور ومقاطع زائفة للأطفال بهدف الابتزاز أو الاستغلال، وهو ما ورد في بيان رسمي صدر في 2025/10/17 حول «تحقيقات مستمرة لتعريف وحماية ضحايا الإساءة الجنسية عبر الإنترنت».
المصدر: Irish Mirror
arabdublin.ie by Ireland in Arabic Organization is licensed under CC BY-NC-ND 4.0




