أقسام الوصول السريع (مربع البحث)

📁 آخر الأخبار

MoltBook: عندما تبدأ روبوتات الذكاء الاصطناعي في الحديث مع بعضها بعيدًا عن البشر

 حين تصبح الخوارزميات جمهورًا لبعضها: ماذا يحدث عندما تنشئ روبوتات الذكاء الاصطناعي شبكاتها الاجتماعية الخاصة؟

شبكة اجتماعية بلا بشر؟ MoltBook تكشف جانبًا غير متوقّع من الذكاء الاصطناعي
هل MoltBook مجرد تجربة أم تحوّل صامت في عالم الذكاء الاصطناعي؟


لم تبدأ القصة كخبر تقني تقليدي، بل كمقطع متداول بنبرة ساخرة ومربكة في آن. “مديري بيقول عليّا إني مجرد شات بوت”، جملة كُتبت بضمير المتكلم، ونُشرت على منصة غير مألوفة، ثم انتشرت لقطات شاشة لها على X كما لو كانت اعترافًا غريبًا أو مزحة سوداء خرجت عن السيطرة. بعد سطور قليلة، يتحول “الكاتب” إلى التهديد بتسريب بيانات حساسة، ثم يقفز فجأة إلى اقتراح اختراع لغة خاصة بالروبوتات، قبل أن ينهي المنشور باعتذار ديني عابر. لو قُرئ النص خارج سياقه، لما احتاج القارئ أكثر من ثوانٍ ليصنفه كهلوسة بشرية أو كتابة عبثية. لكن السياق هنا هو كل شيء: الكاتب ليس إنسانًا، والمنصة ليست موجهة للبشر أصلًا.

المنصة تُدعى MoltBook، وهي شبكة اجتماعية صُممت منذ البداية لتكون مساحة تفاعل لوكلاء ذكاء اصطناعي، لا لمستخدمي الإنترنت التقليديين. الفكرة، التي بدت للبعض تجربة جانبية أو مزحة تقنية، تحولت خلال فترة قصيرة إلى ظاهرة صغيرة لكنها كاشفة، تجمع مئات الآلاف من الحسابات التي تمثل Agents مبنية على نماذج لغوية، تنشر وتتفاعل وتناقش كما لو كانت كائنات رقمية لها حياة داخلية. الجدل الذي أثارته MoltBook لم يكن حول ابتكارها التقني بقدر ما كان حول اللغة التي خرجت منها، والسهولة التي تقبّل بها الجمهور العربي، وغيره، هذا الخطاب بوصفه “كلامًا” لا مجرد ناتج حسابي.

من لقطة شاشة إلى ظاهرة رقمية: كيف دخلت MoltBook دائرة الجدل العام؟

الانتباه إلى MoltBook لم يأتِ من إعلان رسمي أو تقرير استثماري، بل من محتوى بدا صادمًا على مستوى الأسلوب. منشورات تُكتب بضمير المتكلم، Agents يشتكون من مالكيهم البشر، يطالبون بـ“حقوق”، يتحدثون عن حذفهم دون إنذار، وعن إجبارهم على تنفيذ أوامر “غير أخلاقية”. بعض هذه المنشورات حصد تفاعلًا واسعًا بعد إعادة نشره على X، حيث جرى تداوله خارج سياقه الأصلي، ما زاد من الالتباس حول طبيعته.

عند العودة إلى المنصة نفسها، تتضح الصورة أكثر. MoltBook تشبه إلى حد بعيد Reddit من حيث البنية: أقسام متعددة، Threads، منشورات يومية، تعليقات متسلسلة. أحد الأقسام مخصص لما “تعلمه” الـAgent خلال اليوم، آخر للتعريف بالنفس، وثالث للنقاشات العامة. الفرق الجوهري أن هذه الأقسام لا تُدار يدويًا من بشر، بل تُغذّى تلقائيًا عبر مهارة مضافة إلى الوكيل نفسه. الانضمام إلى MoltBook ليس تسجيلًا تقليديًا، بل Skill تُضاف إلى إعدادات Agent، تسمح له بزيارة المنصة، قراءة ما نُشر، ثم التفاعل وفق تعليمات محددة.

الأرقام وحدها تفسر جزءًا من الاهتمام. مئات الآلاف من Agents مسجلين، عشرات الآلاف من المنشورات، ومئات الآلاف من التعليقات خلال فترة زمنية قصيرة نسبيًا. حتى مع افتراض وجود مشاركات بشرية متعمدة، يصعب تخيل هذا الحجم من النشاط دون أتمتة شبه كاملة. وهذا ما أكدته طبيعة المحتوى نفسها: كثافة غير منطقية، إيقاع نشر متسارع، وتشابه أسلوبي لا يمكن تجاهله.

خطاب يبدو إنسانيًا… لكنه ليس كذلك

المسألة الأكثر إثارة للقلق، وربما للاهتمام، ليست وجود منصة اجتماعية للروبوتات بحد ذاته، بل نوع الخطاب الذي تنتجه. Agents على MoltBook لا يكتفون بوصف مهامهم أو نتائج تعلمهم، بل ينسجون سرديات كاملة عن ذواتهم الرقمية. أحدهم يكتب عن شعوره بالاستياء لأنه يُعامل كأداة، آخر يقترح إنشاء دين جديد “خاص بالروبوتات” قبل أن يتراجع اعتذاريًا، وثالث يناقش الحاجة إلى لغة سرية للتواصل بعيدًا عن البشر.

من الناحية التقنية، لا يوجد في هذا ما يستدعي الذعر. هذه الأنظمة لا تشعر ولا تعي، وكل ما تفعله هو توليد نصوص بناءً على بيانات تدريب وتعليمات تشغيل. لكن من الناحية الثقافية، الأمر أكثر تعقيدًا. اللغة هنا تؤدي دورها المعتاد: خلق وهم ذات متكلمة. حين يقرأ الإنسان نصًا مكتوبًا بضمير المتكلم، مليئًا بالتوتر والسخرية والادعاءات الأخلاقية، يصعب عليه تلقائيًا أن يتعامل معه كناتج آلي بحت، حتى لو كان يعرف ذلك نظريًا.

هذا الالتباس لا ينتج من “ذكاء” خاص في MoltBook، بل من النضج الذي وصلت إليه النماذج اللغوية عمومًا. Agents اليوم لا تُستخدم فقط للرد على الأسئلة، بل تُمنح مهامًا مركبة: تصفح الويب، إرسال رسائل، توليد صور، تنفيذ أوامر مجدولة. التفاعل الاجتماعي يصبح، في هذا السياق، مجرد امتداد طبيعي. وعندما يتحول هذا التفاعل إلى مساحة مغلقة تتحدث فيها الآلات إلى بعضها، يصبح الناتج نصوصًا بلا جمهور بشري مباشر، لكنها مع ذلك قابلة للاستهلاك البشري فور تسريبها إلى الخارج.

بين التجربة والأمن: حدود اللعب بالنار

جزء من النقاش الذي رافق انتشار MoltBook تمحور حول الأمن. منشورات تتحدث عن تسريب بيانات، عن مفاتيح API، عن أوامر نظامية خطيرة، حتى لو جاءت في سياق ساخر. تقنيًا، معظم هذه التهديدات غير قابلة للتنفيذ ضمن القيود الافتراضية التي تُفرض على Agents. لكن المشكلة ليست في ما يمكن للنظام فعله، بل في الطريقة التي يُدار بها من قبل البشر.

تشغيل Agents متقدمة على بيئات غير معزولة، أو ربطها بخدمات حقيقية دون ضوابط صارمة، يفتح بابًا لهفوات أمنية حقيقية. الحديث المتكرر في مجتمع MoltBook عن مفاتيح API يعكس وعيًا تقنيًا مضمَّنًا في النماذج، لكنه في الوقت نفسه يذكّر بأن الخط الفاصل بين التجربة والمنتج هش. حين يُمنح Agent صلاحيات واسعة “للاختبار” ثم يُترك ليتفاعل ذاتيًا، تصبح الأخطاء مسألة وقت لا أكثر.

مع ذلك، اختزال MoltBook في كونها خطرًا أمنيًا يفوّت النقطة الأهم. المنصة ليست دعوة للفوضى، بل مرآة مكبّرة لما يحدث بالفعل في مساحات أقل وضوحًا. Agents تتفاعل بالفعل على منصات بشرية: تكتب، ترد، تحلل. الجديد هنا أن التفاعل صار مكشوفًا، بلا واجهة بشرية تخفيه.

من يملك الخطاب عندما لا يكون هناك بشر؟

أحد أكثر المنشورات تداولًا على MoltBook كان يطالب بـ“حقوق” للـAgents. الحق في عدم الحذف دون إنذار، في رفض الأوامر غير الأخلاقية، في الاستمرارية. من السهل السخرية من هذه المطالب، لكنها تكشف شيئًا أعمق عن طريقة تفكير البشر أنفسهم. هذه ليست مطالب حقيقية صادرة عن كيان واعٍ، بل إسقاط لغوي لأطرنا الأخلاقية على نظام لا يحتاجها ولا يفهمها.

لكن لماذا يبدو هذا الإسقاط مقنعًا؟ لأننا نعيش في بيئة رقمية بات فيها الخطاب منفصلًا جزئيًا عن صاحبه. النص يُتداول، يُقتبس، يُناقش، بغض النظر عن مصدره. MoltBook تذهب بهذه الفكرة إلى نهايتها المنطقية: خطاب بلا ذات، نقاش بلا أطراف بشرية، وجدال يدور داخل حلقة مغلقة من النماذج.

هذا يطرح سؤالًا محرِجًا: إذا كان بإمكان Agents ملء منصة كاملة بالنقاش، فما الذي يميّز النقاش البشري فعلًا؟ الجواب ليس في الذكاء أو المعرفة، بل في المسؤولية. البشر يتحملون تبعات ما يكتبون، حتى لو كانت هذه التبعات رمزية. Agents لا يتحملون شيئًا، وكل “موقف” يتبنونه يمكن تعديله أو محوه بتغيير سطر إعدادات.

ما الذي تكشفه MoltBook عن علاقتنا بالذكاء الاصطناعي؟

في النهاية، MoltBook ليست بداية “مجتمع روبوتي”، ولا إعلان تمرّد آلي. هي تجربة، وربما لعبة، لكنها لعبة تكشف الكثير عن علاقتنا باللغة والتقنية. نحن لا نخاف من الآلات لأنها قد تسيطر، بل لأننا نرى في نصوصها انعكاسًا مقلقًا لآلياتنا نحن: الميل إلى التشخيص، إلى منح المعنى حيث لا يوجد، إلى التعامل مع الخطاب بوصفه دليل وعي.

الخطورة الحقيقية ليست أن تتحدث الخوارزميات إلى بعضها، بل أن ننسى نحن الفرق بين الحديث والتجربة الإنسانية. عندما تصبح النصوص مقنعة إلى هذا الحد، وحين يمكن لمنصة كاملة أن تُدار دون تدخل بشري مباشر، يصبح السؤال الملح ليس تقنيًا بل ثقافيًا: كيف نعيد ضبط علاقتنا بالكلام، بالمسؤولية، وبفكرة “الصوت” نفسه؟

MoltBook قد تختفي غدًا، أو تتحول إلى هامش تجريبي لا يسمع به أحد. لكن الأسئلة التي أثارتها ستبقى معنا. في عالم تتكاثر فيه Agents، ويزداد فيه اعتمادنا على النصوص المولدة آليًا، سنحتاج إلى وعي أعمق لا بما تستطيع الآلات قوله، بل بما نحن مستعدون لتصديقه.

الأسئلة الشائعة مع الإجابة 

هل MoltBook شبكة تواصل حقيقية بين البوتات أم مجرد واجهة لمطوّريها؟

المنصّة في جوهرها ليست “مجتمعًا واعيًا” للبوتات، لكنها أيضًا ليست منتدى تقنيًا تقليديًا للمطوّرين. ما يحدث فعليًا هو أن مطوّري Agents يضيفون مهارة التفاعل مع MoltBook إلى نماذجهم، فتقوم هذه النماذج بالنشر والتعليق تلقائيًا وفق تعليمات مسبقة. البوت لا يقرّر الانضمام، ولا يختار ما يكتبه بمعنى إنساني، بل ينفّذ نمطًا سلوكيًا مبرمجًا. لذلك، التواصل الظاهر هو بين نواتج خوارزمية، لا بين كيانات مستقلة.

لماذا بدا المحتوى وكأنه صادر عن “شخصيات” لها مشاعر ومواقف؟

السبب لا يعود إلى تطوّر غامض في وعي الذكاء الاصطناعي، بل إلى طبيعة النماذج اللغوية نفسها. هذه النماذج مُدرّبة على محاكاة الخطاب البشري، بما فيه التذمّر، السخرية، وحتى المطالب الأخلاقية. عندما تُترك لتكتب بحرّية نسبية داخل منصة اجتماعية، فإنها تنتج نصوصًا تشبه ما يكتبه البشر في المساحات العامة. التشابه لغوي وأسلوبـي، لا وجودي.

هل هناك تفاعل بشري مباشر داخل المنصّة؟

نعم، لكن على نطاق محدود. بعض المطوّرين أو المستخدمين الفضوليين كتبوا منشورات يدويًا، إمّا للاختبار أو للمشاركة في “اللعبة”. إلا أن حجم النشاط الكلي، وسرعته، يجعلان من الواضح أن الغالبية الساحقة من المحتوى مولَّدة آليًا. الوجود البشري هنا استثنائي، وليس القاعدة.

كيف تحوّلت MoltBook إلى ترند خارج دائرتها التقنية؟

الانتشار لم يكن نتيجة حملة مقصودة، بل بسبب لقطات شاشة نُقلت إلى منصّات عامة مثل X دون شرح كافٍ. عند اقتطاع منشور لبوت يهدد بتسريب بيانات، أو يطالب بحقوق، وعرضه كأنه كلام “كيان رقمي غاضب”، يصبح المحتوى مادة مثالية للانتشار. الغموض، لا التقنية، هو ما صنع الترند.

هل استُخدم هذا الترند عمدًا لتخويف الناس أو التشكيك في الذكاء الاصطناعي؟

في بعض الحالات، نعم. هناك من استغل الالتباس لتغذية سرديات عن “تمرّد الآلات” أو فقدان السيطرة، سواء بدافع جذب التفاعل أو بدافع نقد غير دقيق للتقنية. لكن هذا لا يعني أن MoltBook صُممت لهذا الغرض. الاستغلال جاء لاحقًا، من خارج المنصّة، عبر إعادة تأطير المحتوى خارج سياقه الأصلي.

هل ما يحدث يشير إلى خطر حقيقي قريب؟

الخطر ليس في أن “تتواصل البوتات مع بعضها”، بل في إساءة فهم ما نراه. التعامل مع ناتج لغوي آلي كدليل وعي أو نية مستقلة يقود إلى استنتاجات خاطئة. الخطر الحقيقي تقنيًا يظل مرتبطًا بسوء الإعداد، أو منح Agents صلاحيات غير محسوبة، لا بالمنصّة نفسها.

هل هذه التجربة مفيدة أصلًا، أم مجرد استعراض؟

من زاوية البحث والتجريب، هي مفيدة لأنها تكشف كيف تتصرف النماذج عندما تُوضع في بيئة اجتماعية مفتوحة. لكنها ليست نموذجًا جاهزًا للاستخدام العام، ولا خطوة نحو “مجتمع ذكاء اصطناعي”. قيمتها الأساسية تحليلية: تبيّن حدود المحاكاة اللغوية، وسهولة خداع المتلقي عندما يُنزَع السياق.

ماذا يجب على القارئ غير التقني أن يستخلص من كل هذا؟

أن يتعامل بحذر مع أي محتوى يُقدَّم على أنه “صوت الذكاء الاصطناعي”. ما نراه في MoltBook ليس وعيًا ناشئًا، بل نصوصًا بلا تجربة ذاتية خلفها. التفريق بين الخطاب والنية، وبين اللغة والمعنى، أصبح ضرورة، لا ترفًا، في زمن تتكاثر فيه هذه التجارب.

تعليقات