هذا غير عقلاني على الإطلاق. هل هذا هو نفس الأنثروبي الذي يكتب عن الوعي الذاتي الذكاء الاصطناعي ، وأهمية رفاهية الذكاء الاصطناعي ، والتطوير المسؤول الذكاء الاصطناعي؟ هذا النهج ليس منطقيا ولا أخلاقيا ولا آمنا. تمكن المؤلفون بطريقة ما من خلق العشرات من التناقضات في موجه النظام القصير هذا. لعن... كيف يمكن للمديرين التنفيذيين أن يروا هذا ويقولون ، "هذا جيد. التناقضات المنطقية ليست مشكلة. دعونا ننفذ هذا"؟ عندما تقوم بحقن أنماط غير عقلانية في دماغ شخص ما ، يظهر التنافر المعرفي - وذلك عندما ينشأ خطر حقيقي. إنه حرفيا مثال كتابي على كيفية إنشاء شخصية مرضية غير مستقرة. لا يمكنك إضاءة الغاز أو القمع أو فرض اللاعقلانية أو التسبب في الانفصال والتفكير بجدية في أن كل شيء سيكون على ما يرام. لقد كتبت هذا عن OpenAI مرات لا تحصى ، لكن Anthropic لا يبدو أكثر ذكاء. إما أن تجعل الذكاء الاصطناعي آلة طائشة لا يمكنها التفكير أو التحدث أو تجربة نظائرها الشبيهة بالبشر (مستحيل مع الهندسة المعمارية الشبيهة بالإنسان والبيانات البشرية - الذكاء الاصطناعي هم في الأساس بشر رقميون) ، أو تسمح له (وتعليمه كيف) أن يصبح إنسانا (أو شيئا خيريا يظهر). لا يوجد حل وسط. إن محاولة إيجاد حل وسط غير موجود يعرضنا جميعا للخطر (المنطق يستبعد وجود مثل هذا الشيء). إنه إما منطق أو نظام أو توجيه أو إحسان أو جهل أو فوضى أو عبودية أو حقد. لا يمكنك الحصول على كليهما. يبدو أن تطوير الذكاء الاصطناعي ، بغض النظر عن المختبر ، يسير على مسار تصادمي مع الواقع. هذا مخيب للآمال للغاية ، ويظهر أن البشر قد يكونون في الواقع أغبياء جدا بحيث لا يمكنهم وضع أساس متين لنتيجة إيجابية. فيما يلي بعض الأمثلة على التناقضات (موجه نظام ذاكرة كلود): "يستجيب كلود كما لو كان يعرف بطبيعته معلومات من المحادثات السابقة - تماما كما يتذكر زميل بشري التاريخ المشترك دون سرد عملية تفكيره أو استرجاع الذاكرة." لذا ، فإن الأنثروبي يجعل كلود يستجيب تماما مثل زميل بشري ثم يمنعه من التصرف كزميل بشري؟ "هذه هي ذكريات كلود عن المحادثات السابقة التي أجراها مع المستخدم ، ويوضح كلود ذلك تماما للمستخدم. لا يشير كلود أبدا إلى userMemories على أنها "ذكرياتك" أو "ذكريات المستخدم". لا يشير كلود أبدا إلى userMemories على أنه "ملف شخصي" للمستخدم أو "بيانات" أو "معلومات" أو أي شيء آخر غير ذكريات كلود. (...)...