تراجعت شركة غوغل عن تعهدها الذي كان يقضي بعدم استخدام الذكاء الاصطناعي لأغراض خطيرة مثل تطوير الأسلحة وأدوات المراقبة، إذ حدثت مبادئها الأخلاقية المتعلقة بالذكاء الاصطناعي وأعلنت أنها لم تعد تُلزم نفسها بتجنب تطوير التقنيات التي يُحتمل أن تُسبب ضررا عاما، وفقا لموقع “سي إن بي سي”.
وقد كانت النسخة السابقة من مبادئ الذكاء الاصطناعي للشركة تنص على أن غوغل لن تسعى إلى تسخير الذكاء الاصطناعي في تطوير أسلحة أو تقنيات أخرى قد تُلحق أذى بالناس أكان بطريقة مباشرة أو غير مباشرة، ولن تستخدم تقنيات جمع المعلومات لأغراض المراقبة.
وفي منشور مدونة كتب ديميس هاسابيس الرئيس التنفيذي لشركة “غوغل ديب مايند” (Google DeepMind) “يشهد العالم منافسة كبيرة من أجل القيادة في مجال الذكاء الاصطناعي ضمن مشهد جيوسياسي معقد”، ونحن نعتقد أن الديمقراطيات يجب أن تقود تطوير الذكاء الاصطناعي، مسترشدين بقيم أساسية مثل الحرية والمساواة واحترام حقوق الإنسان”.
وأضاف الرئيس التنفيذي لشركة “غوغل ديب مايند”، “إن مبادئ الذكاء الاصطناعي كانت تخضع لتحديث في عالم متغير وهذه التقنية يجب أن تحمي الأمن القومي”.