كشفت تقارير تقنية أن شروط استخدام خدمة Copilot من مايكروسوفت للأفراد تحتوي على بند ينص بوضوح على أن “Copilot مخصص لأغراض الترفيه فقط” مما يعني أن الشركة تحذر المستخدمين من الاعتماد عليه في أي نصائح مهمة وهذا يتعارض تمامًا مع تسويق الشركة للأداة كـ”مساعد عمل لا غنى عنه” ضمن ويندوز وحزمة أوفيس.
أوضحت TechCrunch أن النص القانوني الموجود في صفحة الشروط، والتي تم تحديثها آخر مرة في أكتوبر 2025، ينص على أن “Copilot قد يخطئ وقد لا يعمل كما هو متوقع، لذا لا تعتمد عليه للحصول على نصائح مهمة واستخدمه على مسؤوليتك الخاصة”.
فجوة بين الوعود القانونية ورسائل التسويق
أشارت التقارير إلى أن هذا النص أثار ردود فعل سلبية على وسائل التواصل الاجتماعي، فبينما تستثمر مايكروسوفت مليارات الدولارات لتضمين Copilot في ويندوز وOffice وEdge، وتروج له كأداة لزيادة الإنتاجية، تؤكد وثيقة الشروط بوضوح أن الشركة لا تقدم أي ضمانات حول دقة مخرجاته أو ملاءمتها للاستخدام الجاد.
كما توضح الشروط أن مايكروسوفت “لا تقدم أي تعهد أو ضمان من أي نوع بشأن Copilot”، وأن المستخدم وحده يتحمل مسؤولية أي محتوى يولده أو يشاركه اعتمادًا على الأداة، بما في ذلك مخاطر انتهاك حقوق النشر أو العلامات التجارية أو الخصوصية.
يرى المحللون أن هذه الفجوة بين لغة التسويق ولغة الشروط تعكس حالة عامة في سوق الذكاء الاصطناعي، حيث تقدم الشركات منتجاتها كحلول “شبه سحرية” في المؤتمرات، لكنها في الوثائق القانونية تحذر المستخدمين بشكل صريح من الاعتماد الكامل عليها.
ما الفرق بين Copilot للأفراد ونسخة المؤسسات؟
أوضحت TechCrunch أن بند “للترفيه فقط” ينطبق على نسخة Copilot للأفراد، أي التجارب المدمجة في ويندوز وEdge وبعض منتجات مايكروسوفت المجانية أو منخفضة التكلفة للمستخدم العادي.
أما نسخة المؤسسات Microsoft 365 Copilot، التي تُباع بعقود مدفوعة للشركات، فلا تخضع لنفس العبارة حرفيًا، بل تتمتع بشروط مختلفة وقدرات إضافية من حيث الأمان والامتثال، مع إمكانية تخصيص شاشات التحذير داخل بيئات العمل.
ومع ذلك، تظل مايكروسوفت حذرة حتى في سياق الشركات، حيث تدفع المدراء إلى التعامل مع Copilot كأداة مساعدة تتطلب مراجعة بشرية مستمرة، وليس كبديل عن الموظف أو مصدر قرار نهائي في مسائل حساسة مثل الشؤون القانونية أو المالية أو الطبية.
هذا النهج، وفقًا للخبراء، هو محاولة لتقليل المسؤولية القانونية في حال اعتمدت شركة ما بشكل مفرط على مخرجات الذكاء الاصطناعي وحدها دون تدقيق بشري.
لماذا تقول مايكروسوفت “استخدمه على مسؤوليتك الخاصة”؟
ترى تقارير مثل Tom’s Hardware وThe Next Web أن صياغة “للترفيه فقط” ليست مجرد مبالغة حذرة، بل هي محاولة واضحة من مايكروسوفت لتقييد توقعات المستخدمين وحماية نفسها من الدعاوى المحتملة في حال اعتمد شخص على Copilot لاتخاذ قرار مهم وتعرض لضرر.
الأدوات المعتمدة على النماذج اللغوية الكبيرة معروفة بظاهرة “الهلوسة”، أي تقديم معلومات خاطئة بثقة، وهو أمر لا يمكن القضاء عليه تمامًا في الجيل الحالي من التقنيات.
لذا، تسعى الشركة لتأكيد أنها لم تعلن يومًا أن Copilot هو مصدر “موثوق بالكامل” للحقائق أو النصائح، وأن مسؤولية التحقق النهائي تقع على عاتق المستخدم، سواء كان فردًا يكتب بريدًا إلكترونيًا أو طالبًا يستخدم الأداة في إعداد واجب أو موظفًا يستعين بها في كتابة عرض تقديمي.
رد مايكروسوفت.. “لغة قديمة” قيد التحديث
نقلت TechCrunch عن متحدث باسم مايكروسوفت قوله إن الشركة تعتزم “تحديث اللغة القديمة” في شروط Copilot للأفراد، مشيرًا إلى أن عبارة “للترفيه فقط” وُضعت في وقت مبكر كمصطلح قانوني احترازي ولم تُعدّل رغم توسع استخدام الأداة في سيناريوهات عمل أكثر جدية.
لكن حتى مع هذا التوضيح، يرى كثيرون أن وجود هذه العبارة حتى وقت قريب، بالتزامن مع حملات تسويق مكثفة تدفع المستخدمين للاعتماد على Copilot في الدراسة والعمل، يثير تساؤلات حول مدى اتساق رسائل مايكروسوفت مع واقع قدرات تقنيتها وحدودها.
تشارك مايكروسوفت مع شركات أخرى في هذا الموقف المزدوج، فهي تريد أن تكون أدوات الذكاء الاصطناعي في قلب كل مهمة رقمية نؤديها يوميًا، لكنها في الوقت نفسه تحذرنا في سطور الشروط الدقيقة من أن هذه الأدوات قد تخطئ، وأننا نحن من سيتحمل العواقب إذا اعتمدنا عليها بشكل كامل دون مراجعة أو تفكير.

