تخيل عالمًا حيث يتشكل الذكاء الاصطناعي (AI) بواسطة الأشخاص الذين يستخدمونه. هذه الفكرة لم تعد مجرد تجربة فكرية بل أصبحت واقعًا، بفضل دراسة مبتكرة قامت بها شركة AI الأنثروبية. لقد طوّروا نموذجًا لغويًا كبيرًا (LLM) يسمح للمستخدمين بالتأثير على قيمه. هذا النهج المبتكر أدى إلى ظهور موجة جديدة من تطوير الذكاء الاصطناعي الديمقراطي. ولكن ماذا يعني هذا بالنسبة لمستقبل الذكاء الاصطناعي؟ دعونا نتعمق فيه.
تمكين الذكاء الاصطناعي: نهج جديد
قد يبدو مفهوم تمكين الذكاء الاصطناعي مجرد تجربة فكرية، ولكن له تأثيرات عملية جدًا. تقليديًا، تم تصميم العديد من النماذج اللغوية الكبيرة (LLMs)، مثل كلاود من أنثروبيك وتشات جي بي تي من OpenAI، بواسطة تعليمات مشفرة تحدد سلوكًا محددًا. على الرغم من أن هذه التعليمات تهدف إلى تقييد الإخراجات غير المرغوب فيها، إلا أنها يمكن أن تحرم المستخدمين من وكالتهم. بعد كل شيء، ما يعتبر مقبولًا ليس دائمًا مفيدًا، والعكس صحيح أيضًا. علاوة على ذلك، يمكن أن تختلف الأحكام الأخلاقية أو القائمة على القيم بين الثقافات والتوجهات السكانية والفترات الزمنية.
إذًا، كيف يمكننا التوازن بين الحفاظ على وكالة المستخدم ومنع الإخراجات غير المناسبة؟ الإجابة تكمن في “السماح للمستخدمين بالتصويت على القيم في دراسة الذكاء الاصطناعي”. يسمح هذا النهج، الذي أطلقت عليه أنثروبيك “الذكاء الاصطناعي الدستوري الجماعي”، للمستخدمين بمواءمة نماذج الذكاء الاصطناعي مع قيمهم الخاصة.
“دستور” للذكاء الاصطناعي
تجربة الذكاء الاصطناعي الدستوري الجماعي لشركة أنثروبيك هي محاولة رائدة للتعامل مع هذه المسألة المعقدة. بالتعاون مع بوليس ومشروع الذكاء الجماعي، جمعت الشركة 1,000 مستخدم من خلفيات متنوعة. طلبوا من هؤلاء المشاركين الإجابة على سلسلة من الأسئلة من خلال التصويت، مما سمح لهم بتحديد مواءمة القيم لنماذج الذكاء الاصطناعي.
كان العملية مشابهة لإنشاء “دستور” للذكاء الاصطناعي. تمثل الدستور كوثيقة توجيهية للحوكمة في العديد من الدول، واشتمل هذا الدستور الذكاء الاصطناعي على مجموعة من القواعد التي يجب على نموذج الذكاء الاصطناعي اتباعها. ثم تم تدريب النموذج على دمج هذه القواعد في عملياته.
التحديات والانتصارات
على الرغم من أن هذه التجربة كانت ناجحة علميًا، إلا أنها أظهرت أيضًا العديد من التحديات. كان أحد التحديات الرئيسية هو تطوير طريقة جديدة لعملية المعايرة. نظرًا لأن هذه التجربة كانت الأولى من نوعها واعتمدت على منهجية أنثروبيك الفريدة للذكاء الاصطناعي الدستوري، لم يكن هناك اختبار معتمد لمقارنة النماذج الأساسية مع تلك التي تم ضبطها بقيم المستخدمين المجتمعين.
على الرغم من هذه التحديات، فإن النموذج الذي دمج بيانات من ردود فعل التصويت من المستخدمين تفوق قليلاً على النموذج الأساسي من حيث الإخراجات المتحيزة. يؤكد هذا النتيجة إمكانية السماح لمستخدمي منتج نموذج لغوي كبير بتحديد قيمهم الجماعية.
مع استمرار تطور عالم الذكاء الاصطناعي، يمكن للمنصات المبتكرة مثل cryptoview.io مساعدة المستخدمين على البقاء على اطلاع ومشاركة. سواء كنت من المهتمين بالذكاء الاصطناعي أو المراقبين العاديين، من المهم أن تبقى على اطلاع على هذه التطورات وتفهم كيف يمكن أن تشكل مستقبلنا الرقمي.
نص دعوة للعمل
