سيتم إنشاء فريق عمل ChatGPT من قبل أوروبا
وقالت الهيئة التي توحد هيئات مراقبة الخصوصية الوطنية في أوروبا يوم الخميس إنها أنشأت فريق عمل مخصص لـ ChatGPT
"مائة كلمة مسموعة لا تستحق المشاهدة"، ربما لم يعد هذا المثل دقيقًا عندما يتعلق الأمر بالأمن السيبراني في مواجهة "التهديد" من التزييف العميق في المستقبل، لن تتمكن بعد الآن من تصديق أي شيء. لقد رأيته بأم عيني!
بالتذكير بالمفهوم، فإن التزييف العميق هو برنامج يستخدم الذكاء الاصطناعي ، مما يسمح للمستخدمين بتبديل وجه شخص ما في مقطع فيديو بوجه شخص آخر. في الواقع، فهو يساعد المستخدمين على إنشاء محتوى مزيف عن طريق إدراج وجوه المشاهير في الفيديو بغرض التشهير أو الربح غير القانوني. وهذا هو السبب أيضًا في أن التزييف العميق أصبح يشكل تهديدًا كبيرًا لشركات الترفيه والمشاهير، وقبل كل شيء، الأمن السيبراني.
أصدر ستيف جروبمان، كبير مسؤولي التكنولوجيا في شركة الأمن السيبراني McAfee، وسيليست فراليك، أحد علماء البيانات الرائدين في العالم، هذا التحذير في خطاب رئيسي في مؤتمر أمني، حيث كشفت RSA مؤخرًا أن تقنية Deepfake أصبحت أكثر تطورًا بكثير مما تعتقد البشرية. وهو حقًا تهديد كبير في المستقبل. ولإثبات ذلك، عرض هذان العالمان مقطع فيديو، أظهر أن كلمات سيليست فراليك قيلت من صورة تشبه وجه ستيف جروبمان، على الرغم من أن جروبمان لم يذكر ذلك بعد، قائلًا تلك الكلمات على الإطلاق. لذلك يمكن ملاحظة أننا ننخدع بسهولة بالتزييف العميق، لذلك في هذا العصر، ما نراه ونسمعه ليس بالضرورة دقيقًا!
"لقد استخدمت تعليقاتكم العامة لإنشاء وتدريب نموذج للتعلم الآلي مما سمح لي بتطوير مقطع فيديو مزيف بعمق، حيث تخرج كلماتي من فم شخص آخر. هذه مجرد واحدة من الطرق التي لا تعد ولا تحصى التي يمكن من خلالها استخدام الذكاء الاصطناعي والتعلم الآلي لأغراض شريرة. وقالت سيليست فراليك: "هذا يجعلني أفكر في أسوأ السيناريوهات حيث يمكن للمهاجمين استخدام الذكاء الاصطناعي، وأشياء مثل الهندسة الاجتماعية والتصيد الاحتيالي، حيث يمكن لخصومنا الآن إنشاء استهداف تلقائي".
في الواقع، أصبح التزييف العميق والذكاء الاصطناعي مساعدين قويين لمساعدة المتسللين على إنشاء هجمات تصيد شخصية وموجهة عبر الإنترنت بمعدلات نجاح أعلى، ويمكن تنفيذها على نطاق واسع من الهجمات الآلية.
"من العدل أن نقول إن معظم الناس لا يدركون مدى خطورة الذكاء الاصطناعي والتعلم الآلي، وأن الخط الفاصل بين استخدامهما للخير أو الشر ضعيف للغاية. هناك مجال تقني يشارك فيه فريقي يسمى التعلم الآلي التنافسي. وأضاف السيد سيليست فراليك: "هناك، نقوم بإجراء بحث حول الطرق التي يمكن من خلالها للجهات الفاعلة السيئة غزو أو تسميم التسلسل الهرمي للتعلم الآلي".
وفي مقابلة أجريت معه يوم الاثنين 4 مارس، قال ستيف جروبمان إنه وسيليست فراليك تمكنا من إنشاء مقاطع فيديو مزيفة بعمق في عطلة نهاية أسبوع واحدة فقط دون أن يحاولا جاهدين تحقيق ذلك بشكل مثالي. وهذا يدل على أنه بمجرد أن يحدد مهاجم مؤهل في مجال التزييف العميق الهدف، فإن إنشاء مقاطع فيديو ملفقة ومتطورة تعتمد على الذكاء الاصطناعي ليس بالأمر الصعب على الإطلاق.
إحدى الطرق الأكثر شيوعًا للخداع بين شخص حقيقي ونموذج تم إنشاؤه بواسطة الذكاء الاصطناعي هي التقاط صورة شبه حقيقية، ثم تغيير جزء صغير جدًا من التفاصيل بطريقة يراها الشخص العادي. وغالبًا ما يكون من الصعب التعرف عليها. . أعطى فراليك مثالا يمكن من خلاله تفسير صورة البطريق وتفسيرها بواسطة الذكاء الاصطناعي على أنها مقلاة، وذلك بفضل بضع عمليات صغيرة فقط.
ما تتساءل عنه سيليست فراليك هنا هو ما إذا كان من الممكن استخدام نفس التقنيات المستخدمة للتشويش على مصنفات الصور لإرباك نماذج شبكتها، سواء نحن أم لا، وعلى وجه التحديد هنا إيجابية كاذبة (خطأ تحقق كاذب).
هناك عدة أنواع من الإيجابيات الكاذبة، على سبيل المثال، بعض برامج مكافحة برامج التجسس غير المتقنة تجعل المستخدمين يعتقدون خطأً أن أجهزة الكمبيوتر الخاصة بهم تتعرض لهجوم بواسطة برامج تجسس، في حين أنه في الواقع لا توجد مشكلة على الإطلاق. يمكن أيضًا استخدام مصطلح "الإيجابية الكاذبة" عندما يتم تحديد التطبيقات المشروعة لمكافحة برامج التجسس عن طريق الخطأ على أنها تهديدات. وفي معرض حديثه أكثر عن هذه القضية، قال البروفيسور ستيف جروبمان إن النتائج الإيجابية الكاذبة يمكن أن يكون لها عواقب كارثية. ومن الأمثلة البارزة على ذلك تلك الدقائق الـ23 المرعبة التي حدثت في 26 سبتمبر/أيلول 1983، في ذروة توترات الحرب الباردة. أصدرت العديد من مراكز الإنذار الدولية، بما في ذلك الولايات المتحدة والاتحاد السوفييتي، تحذيرات على ارتفاعات عالية بشأن هجوم صاعق صدم العالم، ولكن في النهاية كان مجرد خطأ. وتحديداً اكتشف الجانب السوفييتي إطلاق 5 صواريخ نووية أمريكية واتجهت نحو أراضيه، وأصدر على الفور تعليمات بوضع كافة القوات المسلحة في حالة الاستعداد للحرب والقتال. ولكن مع انطلاق صفارات الإنذار ووميض الشاشات، قرر المقدم ستانيسلاف بيتروف أخيرًا أن الحادث كان مجرد خلل في نظام الكمبيوتر. وعلى وجه التحديد، قال بيتروف إن الولايات المتحدة لن تكون قادرة على بدء حرب عالمية بإطلاق خمسة صواريخ فقط. لقد تجاهل التعليمات التي تدرب عليها، وبحدسه، حكم المقدم بدقة على الوضع، مما ساعد على منع نشوب حرب نووية.
"اتضح أن السبب الجذري للحادث هو محاذاة نادرة لأشعة الشمس على السحب العالية مما أدى إلى تأثيرات تشبه الصواريخ. لذا يمكننا أن نرى مدى خطورة عواقب الارتباك على أنظمة الكمبيوتر، بل ويمكن أن تؤدي إلى نشوب حرب نووية. ماذا لو أطلق الاتحاد السوفييتي صواريخ رداً على ذلك فوراً؟ ومن المهم أن ندرك القوة الحقيقية للذكاء الاصطناعي في حل المشكلات، لكنه سيكون أيضًا سيفًا ذو حدين إذا وقع في أيدي الأشرار المنتشرين عبر الإنترنت،" شارك ستيف جروبمان.
علاوة على ذلك، قال جروبمان أيضًا إنه يعتقد دائمًا أن التكنولوجيا هي في الأساس مجرد أداة غير حية، ويمكن تطبيقها للأغراض الجيدة والسيئة. على سبيل المثال، يمكن استخدام خريطة الجريمة التي تحتوي على بيانات حول مكان حدوث الجريمة ومكان القبض على مرتكب الجريمة لمساعدة الشرطة على حل الجريمة - أو يمكن استخدامها أيضًا من قبل المجرمين أنفسهم لتجنب القبض على مطاردة الشرطة. وفي مثال آخر، تم استخدام طائرة لقصف المدنيين، مما أدى إلى سقوط مليوني ضحية خلال الحرب العالمية الثانية. عندما سُئل عما إذا كان نادمًا على اختراع الطائرة، قال أورفيل رايت في عام 1948 إنه يعتبرها بمثابة استخدام النار، والتي يمكن أن تسبب أضرارًا جسيمة إذا اندلع حريق، ولكنها لا تزال تستخدم لآلاف الأغراض المهمة. وكذلك الذكاء الاصطناعي.
"تُظهر لنا رؤية أورفيل أن التكنولوجيا بطبيعتها غير ذات صلة أخلاقياً، ولا يمكن القول إنها مفيدة أو ضارة إلا اعتمادًا على كيفية استخدامها، وهذا ما تحاربه صناعتنا، الأمن السيبراني، باستمرار!"
وقالت الهيئة التي توحد هيئات مراقبة الخصوصية الوطنية في أوروبا يوم الخميس إنها أنشأت فريق عمل مخصص لـ ChatGPT
تعاون علماء دنماركيون وأمريكيون لتطوير نظام ذكاء اصطناعي يسمى life2vec، قادر على التنبؤ بوقت وفاة الإنسان بدقة عالية.
يمكن لخوارزمية الذكاء الاصطناعي المسماة Audioflow الاستماع إلى صوت التبول لتحديد التدفقات غير الطبيعية والمشاكل الصحية المقابلة للمريض بشكل فعال ونجاح.
لقد أدت الشيخوخة السكانية وانخفاض عدد السكان في اليابان إلى افتقار البلاد إلى عدد كبير من العمال الشباب، وخاصة في قطاع الخدمات.
أحد مستخدمي Reddit يُدعى u/LegalBeagle1966 هو واحد من العديد من المستخدمين الذين يعشقون كلوديا، وهي فتاة تشبه نجوم السينما والتي غالبًا ما تشارك صور سيلفي مغرية، حتى العارية منها، على هذه المنصة.
أعلنت شركة مايكروسوفت للتو أن 12 شركة تقنية أخرى ستشارك في برنامج الذكاء الاصطناعي من أجل الخير.
استخدم المستخدم @mortecouille92 قوة أداة التصميم الجرافيكي Midjourney في العمل وأنشأ إصدارات واقعية فريدة من شخصيات Dragon Ball الشهيرة مثل Goku وVegeta وBulma وelder Kame. .
فقط عن طريق إضافة بعض الشروط أو إعداد بعض السيناريوهات، يمكن لـ ChatGPT تقديم إجابات أكثر صلة باستفساراتك. دعونا نلقي نظرة على بعض الطرق التي يمكنك من خلالها تحسين جودة استجابات ChatGPT الخاصة بك.
Midjourney هو نظام ذكاء اصطناعي تسبب مؤخرًا في "حمى" في مجتمع الإنترنت وعالم الفنانين بسبب لوحاته الجميلة للغاية والتي ليست أقل شأنا من لوحات الفنانين الحقيقيين.
وبعد أيام من إعلان الصين عن تفشي المرض، مع إمكانية الوصول إلى بيانات مبيعات تذاكر الطيران العالمية، واصل نظام الذكاء الاصطناعي BlueDot التنبؤ بدقة بانتشار فيروس كورونا ووهان إلى بانكوك وسيول وتايبيه وطوكيو.