أوبن إيه آي وجوجل وشركات أخرى توقع تعهد البيت الأبيض بشأن مخاطر الذكاء الاصطناعي

أعلن البيت الأبيض يوم الجمعة أن سبع من أكثر الشركات نفوذاً في تطوير الذكاء الاصطناعي وافقت على التزام طوعي لتقليل مخاطر التكنولوجيا الناشئة ، مما زاد من مشاركة إدارة بايدن في الجدل المتزايد حول تنظيم الذكاء الاصطناعي.

تعهدت الشركات – التي تشمل Google و Amazon و Microsoft و META و OpenAI ، الشركة المصنعة لـ SatGBD – بالسماح لخبراء الأمن المستقلين باختبار أنظمتهم قبل إطلاقها للجمهور ، ومشاركة البيانات حول أمن أنظمتهم مع الحكومة والأوساط الأكاديمية.

كما تعهدت الشركات بإنشاء أنظمة تنبه الجمهور عندما يتم إنشاء صورة أو مقطع فيديو أو نص بواسطة الذكاء الاصطناعي ، المعروف باسم “العلامة المائية”.

بصرف النظر عن عمالقة التكنولوجيا ، وقعت أيضًا العديد من الشركات الجديدة في طليعة تطوير الذكاء الاصطناعي على التعهد ، بما في ذلك الأنثروبولوجيا والغزو. (يمتلك جيف بيزوس مؤسس شركة أمازون صحيفة واشنطن بوست ، والمديرة التنفيذية المؤقتة باتي ستونكيفر عضوة في مجلس إدارة أمازون).

البيت الأبيض يعرب عن دعمه لتشريعات الذكاء الاصطناعي

وقد وافق العديد من الموقعين علنًا بالفعل على بعض الإجراءات المماثلة الواردة في تعهد البيت الأبيض. قبل أن تطرح شركة OpenAI على نطاق واسع نظام GPT-4 الخاص بها ، قامت بإحضار فريق لإجراء تمارين تسمى “الاسترداد”. جوجل لديها بالفعل قال في منشور مدونة يؤدي هذا إلى إنشاء علامة مائية ، روجت لها الشركات وصانعو السياسات على أنها طريقة لمعالجة المخاوف من أن الذكاء الاصطناعي قد يبالغ في المعلومات الخاطئة.

وقال مسؤول كبير في البيت الأبيض ، تحدث شريطة عدم الكشف عن هويته لمناقشة التعهد ، إنه سيؤدي إلى معايير أعلى في جميع أنحاء الصناعة.

READ  Golden Globes 2024 Live: أوبنهايمر يكتسح الحفل في ليلة مليئة بالانتصارات التاريخية

قال الشخص: “سيؤدي ذلك إلى دفع مظروف ما تفعله الشركات ورفع مستوى السلامة والأمن والثقة في الذكاء الاصطناعي”.

أشار البيت الأبيض إلى أن هذه كانت مجرد بداية لعمله على الذكاء الاصطناعي. تقوم الإدارة بصياغة أمر تنفيذي يركز على الذكاء الاصطناعي وتدعم الجهود في الكونجرس لصياغة تشريع من الحزبين لتنظيم التكنولوجيا.

شارك مسؤول في البيت الأبيض بعض التفاصيل المحددة حول الأمر التنفيذي أو جدول زمني لموعد إصداره. قال الشخص إن الإدارة تراجع دور الذكاء الاصطناعي عبر الوكالات الحكومية ، وهي “أولوية قصوى” بالنسبة لبايدن.

الرئيس التنفيذي وراء ChatGPT يحذر الكونغرس من أن الذكاء الاصطناعي سيضر العالم

على الرغم من المخاوف الأوسع حول القوة والتأثير المتنامي لصناعة التكنولوجيا ، لم يصدر الكونجرس لوائح شاملة بشأن وادي السيليكون وحاولت إدارة بايدن استخدام التعهدات الطوعية كإجراء مؤقت. منذ ما يقرب من عامين ، طالبت إدارة بايدن بالتزامات عامة من شركات التكنولوجيا الكبرى لتحسين ممارسات الأمن السيبراني في قمة مماثلة للبيت الأبيض.

رحب مناصرو المستهلك بهذا التعهد ، لكنهم حذروا من أن شركات التكنولوجيا لديها تاريخ من الفشل في الوفاء بالتزاماتها المتعلقة بالسلامة والأمن.

قال جيم ستاير ، المؤسس والرئيس التنفيذي لمجموعة Common Sense Media: “يشير التاريخ إلى أن العديد من شركات التكنولوجيا لم تلتزم فعليًا بالتزام طوعي للتصرف بمسؤولية ودعم اللوائح القوية”.

يأتي إعلان البيت الأبيض في أعقاب عقد الرئيس بايدن ونائبه هاريس اجتماعات الذكاء الاصطناعي الأخيرة مع مديري التكنولوجيا الفائقة والباحثين والمدافعين عن حقوق المستهلك وجماعات الحقوق المدنية.

بايدن يلتقي نقاد شركة التكنولوجيا في مجال الذكاء الاصطناعي

قال مسؤول في البيت الأبيض إن الإدارة تنسق “قليلاً” مع الكونجرس بشأن الذكاء الاصطناعي.

وقال المصدر “هذه التعهدات لا تغير الحاجة إلى العمل التشريعي”. قال المسؤول إن الإدارة تضم قانونًا ضروريًا للخصوصية مع تطور الذكاء الاصطناعي.

READ  وكيل مجاني غير منظم توقيع المقتفي

ومع ذلك ، هناك العديد من المقترحات في الكونجرس لتنظيم الذكاء الاصطناعي ، ولا يزال العمل الرئيسي بين الحزبين على بعد أشهر. زعيم الأغلبية في مجلس الشيوخ تشارلز إي. أنشأ شومر (DN.Y.) مجموعة من الحزبين للعمل على تشريعات الذكاء الاصطناعي التي قضت الصيف في البحث عن إحاطات مع كبار خبراء الذكاء الاصطناعي.

تحقق لجنة التجارة الفيدرالية (FTC) في OpenAI بشأن تسرب البيانات وعدم دقة ChatGPT

وفي الوقت نفسه ، تقوم الوكالات الحكومية بتقييم طرق استخدام القوانين الحالية لتنظيم الذكاء الاصطناعي. أطلقت لجنة التجارة الفيدرالية تحقيقًا مفصلاً في ChatGPT ، حيث أرسلت مستندات الشركة حول ممارسات حماية بيانات منتجاتها والأوقات التي قدمت فيها بيانات كاذبة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *