تُظهر منتجات التكنولوجيا غالبًا عادات الناس اليومية أكثر مما تُجسد «قفزات» رؤيوية؛ إذ تعكس اختصاراتهم ومخاوفهم وسلوكياتهم الصغيرة، فالتصميم يتبع السلوك، وكان الأمر كذلك دائمًا. يستطيع أي شخص أن يتأمل ذلك بسهولة: غالبًا ما يعرف كلٌّ منا شخصًا واحدًا على الأقل يستخدم ChatGPT لطرح أسئلة صحية، ليس عرضًا، بل بانتظام، كـ«رأي ثانٍ»، أو كمساحة لاختبار المخاوف قبل البوح بها، وأحيانًا كمعالج أو موضع ثقة أو مكان تختفي فيه مشاعر الإحراج.
عندما تترسخ هذه العادات، تتوقف الشركات عن الاكتفاء بالمراقبة وتبدأ بالبناء، وحينها لا يعود المستخدمون مجرد زبائن، بل يتحولون إلى «معماريين مشاركين»؛ إذ يسهم سلوكهم بهدوء في رسم خريطة تطوير المنتجات. يكتسب هذا السياق أهميته عند النظر إلى إعلان شركة OpenAI في 7 يناير 2026 إطلاق ChatGPT Health، وهي تجربة مخصصة مدعومة بالذكاء الاصطناعي تركز على الرعاية الصحية.
تصف OpenAI الخدمة بأنها «تجربة مخصصة تجمع بشكل آمن بين معلوماتك الصحية وذكاء ChatGPT»، في مسعى لمساعدة الناس على فهم صحتهم بشكل أفضل.
إطلاق تدريجي واستثناءات أوروبية
تبدأ OpenAI حاليًا بطرح ChatGPT Health عبر قائمة انتظار، مع توسيع تدريجي خلال الأسابيع المقبلة. يمكن لأي مستخدم يملك حسابًا على ChatGPT – سواء في النسخة المجانية أو المأجورة – أن يطلب الوصول المبكر، باستثناء المستخدمين في الاتحاد الأوروبي والمملكة المتحدة وسويسرا، إذ ما تزال الشركة تنتظر مواءمة تنظيمية مع القوانين المحلية.
تبدو الأهداف المعلنة بسيطة نظريًا، وهي مساعدة الناس على الشعور بمزيد من الفهم، والاستعداد، والثقة عند إدارة شؤونهم الصحية. لكن الأرقام التي استندت إليها OpenAI تكشف أكثر مما تقوله بياناتها الصحفية؛ إذ تؤكد الشركة أن أكثر من 230 مليون شخص حول العالم يطرحون أسئلة تتعلق بالصحة أو العافية على ChatGPT أسبوعيًا.
230 مليون سؤال صحي أسبوعيًا
يثير هذا الرقم أسئلة غير مريحة: لماذا يتجه هذا العدد الكبير من الناس إلى الذكاء الاصطناعي لطرح أسئلة صحية؟ هل الأمر متعلق بالسرعة وإمكان الحصول على إجابة فورية؟ أم أنه انعكاس لتحول توقعاتنا نحو الوضوح الفوري حتى في القضايا المعقدة أو الحساسة؟ هل يعود السبب إلى شعور بعدم الارتياح عند الحديث بصراحة مع الطبيب عن مواضيع معينة؟ أم أن هناك شيئًا أعمق، مثل تآكل صامت في الثقة بالأنظمة البشرية، يقابله تصاعد في الثقة بآلات لا تحكم علينا، ولا تقاطعنا، ولا تستعجلنا؟
لا يجيب ChatGPT Health عن هذه التساؤلات، بل يقنن السلوك القائم ويمنحه إطارًا رسميًا.
ربط آمن لبيانات الصحة الشخصية
توضح OpenAI أن مساحة Health الجديدة تتيح للمستخدمين ربط بياناتهم الصحية الشخصية بشكل آمن، بما يشمل السجلات الطبية ونتائج الفحوصات المخبرية والمعلومات الواردة من تطبيقات اللياقة والعافية. يمكن لشخص مثلًا أن يرفع آخر نتائج تحاليل الدم ويطلب ملخصًا لها، في حين أنه قد يربط آخر عدّاد الخطوات ليسأل كيف تقارن نشاطاته الحالية بالأشهر السابقة.
يستطيع النظام دمج بيانات من منصات مثل Apple Health وMyFitnessPal وPeloton وAllTrails، وحتى بيانات المشتريات من Instacart، مما يفتح الباب أمام بناء صورة صحية أكثر اكتمالاً تعتمد على نمط الحياة الفعلي.
تَعِد OpenAI بتقديم ردود «سياقية» لا مجرد نصائح عامة، كشرح نتائج المختبر بلغة مبسطة، وتسليط الضوء على الأنماط مع مرور الوقت، واقتراح أسئلة يمكن طرحها في أثناء موعد طبي، إلى جانب أفكار لنظام غذائي أو تمارين رياضية تستند إلى ما تظهره البيانات بالفعل.
مساعد لا طبيب: خطوط حمراء واضحة
تؤكد OpenAI أن ما لا يفعله ChatGPT Health لا يقل أهمية عمّا يستطيع فعله؛ فهو ليس نصيحة طبية، ولا يضع تشخيصًا، ولا يصف علاجًا. صُممت الخدمة لدعم الرعاية، لا لاستبدالها. يعتمد هذا الإطار على تقديم ChatGPT Health كمساعد لا كمرجعية عليا، وكأداة لفهم الأنماط والاستعداد للحوار مع المختصين، وليس لاتخاذ قرارات صحية بمعزل عنهم. تُعد هذه التفرقة حاسمة، وهي نقطة يأمل كاتب المقال أن يأخذها المستخدمون على محمل الجد.
إشراف طبي واسع وHealthBench للتقييم
تشير OpenAI إلى أن تطوير النظام تم تحت إشراف طبي مكثف؛ إذ شارك أكثر من 260 طبيبًا من نحو 60 دولة خلال العامين الماضيين في مراجعة الردود وتقديم التغذية الراجعة، ونتج عن ذلك أكثر من 600 ألف نقطة تقييم فردية. لم يقتصر التركيز على الدقة الطبية فحسب، بل شمل أيضًا النبرة ووضوح الشرح وتحديد اللحظات التي يجب فيها حث المستخدم بوضوح على طلب رعاية مهنية.
دعمًا لهذه العملية، طورت OpenAI إطار تقييم داخليًا يحمل اسم HealthBench، يقيّم الردود وفق معايير يحددها الأطباء، تشمل السلامة والصحة الطبية وصواب التوجيه. يمثل هذا الإطار محاولة لفرض قدر من الهيكلة في مجال تتسم فيه التفاصيل الدقيقة بأهمية كبيرة، وتحمل فيه الأخطاء تبعات ثقيلة.
الخصوصية: بيئة معزولة ومشفرة
تُبرز OpenAI الخصوصية كمحور أساسي في ChatGPT Health؛ إذ يعمل هذا القسم في بيئة منفصلة ومعزولة داخل التطبيق. تُحفظ المحادثات الصحية ومصادر البيانات المربوطة والملفات المرفوعة بمعزل تام عن الدردشات المعتادة، ولا تنتقل هذه البيانات إلى «ذاكرة» ChatGPT العامة، كما تُشفّر المحادثات في هذه المساحة.
تضيف الشركة أن المحادثات الصحية لا تُستخدم لتدريب النماذج الأساسية. يبقى مدى كفاية هذه الضمانات لجميع المستخدمين سؤالًا مفتوحًا، لكن الهيكلية المعمارية للخدمة تشير بوضوح إلى إدراك OpenAI حساسية هذا المجال.
وصول إلى السجلات الطبية في الولايات المتحدة
تذهب الخدمة خطوة أبعد في الولايات المتحدة؛ إذ تتيح شراكة مع شركة b.well Connected Health إمكان وصول ChatGPT Health – بعد الحصول على إذن المستخدم – إلى السجلات الصحية الإلكترونية الحقيقية من آلاف مقدمي الخدمات. يتيح ذلك للخدمة تلخيص تقارير المختبر الرسمية أو تكثيف تواريخ طبية طويلة وتحويلها إلى ملخصات قابلة للقراءة والاستيعاب.
خارج الولايات المتحدة، تبدو القدرات أكثر محدودية إلى حد كبير، بسبب اختلاف الأطر التنظيمية والقانونية بين الدول.
تأثير محتمل على علاقة الطبيب بالمريض
يمكن أن تظهر آثار لاحقة على مزودي الرعاية الصحية أيضًا؛ فإذا وصل المرضى إلى مواعيدهم ولديهم فهم أولي لبياناتهم، وهم ملمّون بالاتجاهات الصحية العامة لديهم، ومجهَّزون بأسئلة مركزة، فقد تصبح الاستشارات أكثر كفاءة، فيقضون وقتًا أقل في فك رموز الأرقام، ووقتًا أكبر لمناقشة الخيارات الطبية واتخاذ القرارات.
ويطفو على السطح سؤال متكرر هو: هل ينبغي للأطباء أن يقلقوا؟ يؤكد المقال أن الجواب «لا» على نحو جدي؛ فالذكاء الاصطناعي ليس متخصصًا طبيًا، ولا يفحص المرضى، ولا يتحمّل مسؤولية قانونية، ولا يمكنه أن يحل محل الحكم السريري والخبرة والمساءلة، فلا يغيّر ChatGPT Health هذه الحقيقة، ولا تمثل الخدمة طريقًا مختصرًا للتشخيص الذاتي، ولا ينبغي التعامل معها بهذه الطريقة.
مسؤولية مشتركة وحدود الاستخدام
ما يغيّره ChatGPT Health هو نقطة الانطلاق في الحوار الصحي؛ إذ يمكن أن يساعد، عند استخدامه بشكل مسؤول، في دفع الناس إلى التفاعل مع معلوماتهم الصحية بدلًا من تجنبها. وفي المقابل، قد يسهم سوء استخدامه في تعزيز يقين زائف أو تأخير رعاية ضرورية.
تتوزع المسؤولية – كما يورد المقال – بين الأداة والمستخدم؛ إذ يتعين على الأفراد إدراك تبعات الخصوصية، وطلب المشورة المهنية عندما تكون المسألة مهمة، والتعامل مع إرشادات الذكاء الاصطناعي بوصفها مدخلًا واحدًا ضمن عدة مصادر، لا جوابًا نهائيًا.












