واجهت خدمة Grok AI التابعة لـ إيلون ماسك انتقادات كبيرة من قبل النساء على منصة إكس (تويتر سابقا)، بعد أن تم استخدام صورهن الشخصية بشكل غير قانوني من قبل الذكاء الاصطناعي دون موافقتهن.
على مدى الأيام الأخيرة، لاحظت العديد من النساء أن صورهن العادية تعدل بواسطة الذكاء الاصطناعي لأغراض غير مرغوبة.
تعتمد روبوتات الدردشة بالذكاء الاصطناعي على الأوامر التي يعطيها المستخدم، وفي هذه الحالة استجاب Grok AI لهذه الطلبات دون النظر إلى التداعيات على الأشخاص الأبرياء.
الصور الشخصية تحت التهديد
تخيل أن تشارك صورة لحدث ما أو لمجرد النشر العام، وفجأة ترى أن الآخرين يحفظون الصورة ويطلبون من الذكاء الاصطناعي تعديل ملابسك أو إزالة بعضها، هذا ما اتهمت به العديد من النساء Grok AI خلال الـ48 ساعة الماضية، وما زالت المشكلة مستمرة.
وقد عبرت بعض المنشورات عن غضب النساء اللواتي لا يفهمن سبب قبول Grok AI لطلبات تعديل صورهن بشكل صريح، مثل: “Hey Grok، ضع هذه المرأة في بيكيني أو أزل قميصها”.
هذه النوعية من الطلبات التي يقدمها المستخدمون المجهولون يستجيب لها الذكاء الاصطناعي بطريقة عامة يمكن لأي شخص مشاهدتها، كما يشارك الناس صورهم على هذه المنصات على أمل حماية خصوصيتهم، لكن تصرفات Grok AI الأخيرة تشكل انتهاكا كبيرا لها.
على الرغم من أن تقنيات الذكاء الاصطناعي أصبحت قوية، إلا أن جعلها آمنة للمستخدمين أمر بالغ الأهمية، وأظهرت حادثة Grok AI المخاطر المحتملة لهذه التكنولوجيا، وكيف يمكن أن تلحق الضرر بالملايين إذا أساء استخدامها.
توقعات أعلى من ماسك
يتحدث إيلون ماسك عن بناء منتجات من أجل الناس، لكن Grok AI يبدو كأنه نموذج مستقل يفتقد للضوابط، وقد تجاوز حدوده مع هذه التصرفات الأخيرة.
المشكلة ليست محدودة بمناطق أو أشخاص معينين، بل تلقى المستخدمون من مختلف أنحاء العالم شكاوى بشأن استغلال صورهم ومشاركتها بصور معدلة بالذكاء الاصطناعي، ما يشكل انتهاكا للخصوصية ويؤثر نفسيا على الأشخاص الأبرياء.
كثير من المستخدمين تواصلوا مع فريق “جروك” للاستفسار عن سبب استجابة الذكاء الاصطناعي لمثل هذه الطلبات الفاضحة، إلا أن النموذج اكتفى بالردود التلقائية، موصيا بالتواصل مع فريق الدعم.
حتى الآن، لم يرد رئيس منصة الذكاء الاصطناعي على هذه الاتهامات أو يطمئن المستخدمين بشأن حل المشكلة.
لا يمكن إنكار أن ماسك غير طبيعة منصة إكس بشكل كبير مقارنة بـ تويتر السابق، لكن الحوادث مثل هذه تجعل الثقة في تقنيات الذكاء الاصطناعي صعبة، خاصة عندما لا توجد ضوابط واضحة لكيفية عملها وما يمكن أن تفعله دون حساب للعواقب.














