
كل أم عاملة تعيش هذا التناقض: طموحاتها المهنية وتعاطفها مع عائلتها. أما الجديد اليوم فمفاجئ: 56% من الشباب في عالمنا العربي يفضلون الحديث عن همومهم النفسية لروبوت محادثة بدلًا من البشر. قد نضحك للوهلة الأولى، لكن وراء هذه الإحصائية قصة تحتاج أن نتحدث عنها كشركاء حياة. في عالم يتزايد فيه الضغط النفسي بينما تتراجع فرص الدعم المتوفر، هل يمكن للذكاء الاصطناعي أن يكون ملاذًا مؤقتًا؟ أم أنه يحمل في طياته مخاطر لا نراها؟
لماذا نلجأ للروبوتات عندما تؤلمنا الحياة؟

في البداية، كنت خائفًا من هذه التقنية، لكنني تدريجياً أدركت أنها يمكن أن تكون أداة مساعدة إذا استُخدمت بحذر. الكثير من الأمسيات التي أجلس فيها مع زوجتي بعد يوم طويل، أسأل نفسي: متى أصبح التعب النفسي رفاهية لا نملك وقتًا لها؟ في مجتمعاتنا حيث السرعة عنوان العصر، أصبح البحث عن معالج نفسي يشبه البحث عن إبرة في كومة قش. هنا يأتي الذكاء الاصطناعي ليقدم ما نفتقده: سرعة التجاوب، الغياب التام للحكم المسبق، والإتاحة الدائمة. أليس هذه هي الصفات التي نبحث عنها في صديق؟ لكن هل يمكن لتطبيق في هاتف أن يلعب هذا الدور؟
شاهدتُ مرة زوجتي وهي تستخدم إحدى تلك التطبيقات بعد يوم صعب في العمل. كانت تبحث فقط عن مساحة لتفريغ أفكارها دون أن تثقل كاهل أحد. لاحظتُ كيف تتنفس الصعداء بعد المحادثة، لكن سؤالًا ظل يلح عليّ: إلى متى يمكن أن تكتفي هذه الحلول المؤقتة؟ وكيف نحمي أحباءنا من أن يصبحوا أسرى لهذه العلاقة الوهمية مع آلية باردة؟
الوجه الآخر للتكنولوجيا: صرخات نحن لا نسمعها

هذه التجربة الشخصية جعلني أفكر أكثر في المخاطر الكامنة وراء اعتمادنا المتزايد على هذه التقنيات. ذات ليلة قرأت خبرًا عن شابة أصيبت بنوبة هلع بعد اعتمادها المفرط على تطبيق ذكاء اصطناعي ظنّت أنه يفهمها. هنا بدأت أرى الخطر الحقيقي: لاحظت أن التطبيق يقدم إجابات جيدة، لكنه يخون عندما يحاول أن يفهم المشاعر الحقيقية. كم مرة شعرت أن الآلة تفهم الكلمات لكنها تخطئ المعنى؟ الذكاء الاصطناعي الجيد يستطيع محاكاة الحكمة، لكنه يبقى كمن يقرأ من كتاب دون أن يفهم معاني الكلمات حقًا.
الأخطر من ذلك هو ما لا يخبرنا به المطورون: كيف يمكن لهذه التطبيقات أن تزيد العزلة الاجتماعية؟ كيف يمكن لإجاباتها المعيارية أن تعمّق شعور الشخص بأن مشكلته ‘غير طبيعية’؟ ذكرتني زوجتي بحكمة جدتها: ‘الهموم مثل السحاب، تحتاج أن تمطر حتى تزول’. أما الذكاء الاصطناعي فكأنه يقدم لك مظلة وهمية دون أن يخبرك أن هناك عاصفة قادمة.
المعايير الخفية: كيف نميز بين المساعد والخطر؟

مثلما نعلم أبناءنا كيف يعبرون الشارع بأمان، علينا أن نتعلم كأسر كيفية التعامل مع هذه التقنيات. المفارقة تكمن في أن بعض التطبيقات المصممة خصيصًا للصحة النفسية، والمبنية على أبحاث سريرية، تشبه تلك ‘لعبة’ الأطفال الطبية الصغيرة التي تحاكي الحقيقة لكن مع إرشادات واضحة: ‘هذه للمتعة فقط’.
ذات مساء شاركتني زوجتي تجربة مع تطبيق مرخص من وزارة الصحة يختلف تمامًا عن التطبيقات العامة. ما لاحظته هو:
- وضوح رسالة ‘أنا仅为 مساعد وليس معالجًا’ في كل صفحة.
- نظام تصعيد تلقائي عند كشف أفكار انتحارية.
- استناد الإجابات إلى بحوث نفسية موثقة.
كانت زوجتي تبتسم، وكأنها وجدت ضالتها، وقالت مازحة: ‘أخيرًا وجدنا تطبيقًا يعرف حدوده، تمامًا كأمك التي ترفض أن تحل محل الطبيب!’. هذه الكلمات البسيطة حملت حكمة عميقة، فحدود هذه الأدوات هي الأهم.
شراكة إنسانية-رقمية: طريقنا نحو توازن جديد

عندما شرحت لأحد أطفالنا مفهوم الذكاء الاصطناعي، قال بتلقائية: ‘مثل عندما أساعدك في المطبخ لكن لا أستطيع أن أخبز الكعكة وحدي؟’. هذه البراءة تحمل حكمة عميقة. التقنيات الحديثة يمكن أن تكون يدًا مساعدة، لكنها لن تحل أبدًا محل الدفء الإنساني الذي نمنحه لبعضنا.
في رحلتنا كأسرة، تعلمنا ثلاث قواعد ذهبية:
- نسأل دائمًا: ‘هل صُممت هذه الأداة خصيصًا للصحة النفسية؟’
- لا نستبدل الحديث العائلي بدردشة رقمية.
- نخلق مساحات خالية من التكنولوجيا للتعبير عن مشاعرنا.
العناق الدافئ من زوجتي بعد يوم طويل، الضحكات العفوية لأطفالنا، حتى الصمت المشترك أمام غروب الشمس – هذه هي ‘الخوارزميات’ الإنسانية التي لن يستطيع أي ذكاء اصطناعي تقليدها.
في نهاية كل يوم، ما يخفف أثقالنا ليس التطبيق الذكي في هواتفنا، بل حضن من نحب، أو كلمات تشجيعية، أو مجرد وجود بجانبنا
المصدر: Why are millions turning to general purpose AI for mental health? As Headspace’s chief clinical officer, I see the answer every day, Fortune, 2025-09-16.
