احدث المقالات 🔥

خاصية ChatGPT Health ، مساعد وليس طبيب

Ahmad AlQaisi 25 يناير، 2026

غالبًا ما تعكس منتجات التكنولوجيا عادات الناس اليومية بدلاً من أن تكون "قفزات" ذات رؤية؛ فهي تعكس اختصاراتهم ومخاوفهم وسلوكياتهم البسيطة، فالتصميم يتبع السلوك، وهذا ما كان عليه الحال دائمًا. يمكن لأي شخص أن يفكر في هذا بسهولة: غالبًا ما يعرف كل واحد منا شخصًا واحدًا على الأقل يستخدم ChatGPT لطرح أسئلة متعلقة بالصحة، ليس بشكل عرضي، ولكن بانتظام، كـ "رأي ثانٍ"، أو كمساحة لاختبار المخاوف قبل التعبير عنها، وأحيانًا كمعالج أو موضع ثقة أو مكان تختفي فيه مشاعر الخجل.

عندما تترسخ هذه العادات، تتوقف الشركات عن الاكتفاء بالمراقبة وتبدأ في البناء، وعندها لا يكون المستخدمون مجرد عملاء، بل يصبحون "مهندسين معماريين مشاركين"؛ حيث تساهم سلوكياتهم بهدوء في تحديد مسار تطوير المنتجات. تكتسب هذه الخلفية أهميتها عند النظر إلى إعلان شركة OpenAI في 7 يناير 2026 عن إطلاق ChatGPT Health، وهي تجربة مخصصة مدعومة بالذكاء الاصطناعي وتركز على الرعاية الصحية.

تصف OpenAI الخدمة بأنها "تجربة مخصصة تجمع معلوماتك الصحية وذكاء ChatGPT بشكل آمن"، في محاولة لمساعدة الناس على فهم صحتهم بشكل أفضل.

إطلاق تدريجي واستثناءات أوروبية
تبدأ OpenAI حاليًا في طرح ChatGPT Health من خلال قائمة انتظار، مع توسيع تدريجي خلال الأسابيع القادمة. يمكن لأي مستخدم لديه حساب على ChatGPT - سواء في الإصدار المجاني أو المدفوع - أن يطلب الوصول المبكر، باستثناء المستخدمين في الاتحاد الأوروبي والمملكة المتحدة وسويسرا، حيث لا تزال الشركة تنتظر التنسيق التنظيمي مع القوانين المحلية.

تبدو الأهداف المعلنة بسيطة من الناحية النظرية، وهي مساعدة الناس على الشعور بفهم أفضل، والاستعداد، والثقة عند إدارة شؤونهم الصحية. لكن الأرقام التي استندت إليها OpenAI تكشف أكثر مما تقوله بياناتها الصحفية؛ حيث تؤكد الشركة أن أكثر من 230 مليون شخص حول العالم يطرحون أسئلة تتعلق بالصحة أو العافية على ChatGPT أسبوعيًا.

230 مليون سؤال صحي أسبوعيًا
يثير هذا الرقم أسئلة مزعجة: لماذا يتجه هذا العدد الكبير من الناس إلى الذكاء الاصطناعي لطرح أسئلة صحية؟ هل يتعلق الأمر بالسرعة وإمكانية الحصول على إجابة فورية؟ أم أنه انعكاس لتحول توقعاتنا نحو الوضوح الفوري حتى في القضايا المعقدة أو الحساسة؟ هل يعود السبب إلى الشعور بعدم الارتياح عند التحدث بصراحة مع الطبيب عن مواضيع معينة؟ أم أن هناك شيئًا أعمق، مثل تآكل صامت في الثقة بالأنظمة البشرية، يقابله تصاعد في الثقة بآلات لا تحكم علينا، ولا تقاطعنا، ولا تستعجلنا؟

لا يجيب ChatGPT Health عن هذه التساؤلات، بل يقوم بتقنين السلوك القائم ويمنحه إطارًا رسميًا.

ربط آمن لبيانات الصحة الشخصية
توضح OpenAI أن مساحة Health الجديدة تتيح للمستخدمين ربط بياناتهم الصحية الشخصية بشكل آمن، بما في ذلك السجلات الطبية ونتائج الفحوصات المخبرية والمعلومات الواردة من تطبيقات اللياقة والعافية. يمكن لشخص ما على سبيل المثال تحميل آخر نتائج تحاليل الدم وطلب ملخصًا لها، بينما قد يربط آخر عداد خطوات ليسأل كيف تقارن أنشطته الحالية بالأشهر السابقة.

يمكن للنظام دمج البيانات من منصات مثل Apple Health وMyFitnessPal وPeloton وAllTrails، وحتى بيانات المشتريات من Instacart، مما يفتح الباب أمام بناء صورة صحية أكثر اكتمالاً تعتمد على نمط الحياة الفعلي.

تعد OpenAI بتقديم ردود "سياقية" لا مجرد نصائح عامة، مثل شرح نتائج المختبر بلغة مبسطة، وتسليط الضوء على الأنماط مع مرور الوقت، واقتراح أسئلة يمكن طرحها أثناء موعد طبي، بالإضافة إلى أفكار لنظام غذائي أو تمارين رياضية تستند إلى ما تظهره البيانات بالفعل.

مساعد لا طبيب: خطوط حمراء واضحة
تؤكد OpenAI أن ما لا يفعله ChatGPT Health لا يقل أهمية عما يمكنه فعله؛ فهو ليس نصيحة طبية، ولا يضع تشخيصًا، ولا يصف علاجًا. صُممت الخدمة لدعم الرعاية، لا لاستبدالها. يعتمد هذا الإطار على تقديم ChatGPT Health كمساعد وليس كمرجع أعلى، وكأداة لفهم الأنماط والاستعداد للحوار مع المختصين، وليس لاتخاذ قرارات صحية بمعزل عنهم. هذا التمييز حاسم، وهي نقطة يأمل كاتب المقال أن يأخذها المستخدمون على محمل الجد.

إشراف طبي واسع وHealthBench للتقييم
تشير OpenAI إلى أن تطوير النظام تم تحت إشراف طبي مكثف؛ حيث شارك أكثر من 260 طبيبًا من حوالي 60 دولة خلال العامين الماضيين في مراجعة الردود وتقديم الملاحظات، ونتج عن ذلك أكثر من 600 ألف نقطة تقييم فردية. لم يقتصر التركيز على الدقة الطبية فحسب، بل شمل أيضًا النبرة ووضوح الشرح وتحديد اللحظات التي يجب فيها حث المستخدم بوضوح على طلب رعاية مهنية.

دعمًا لهذه العملية، طورت OpenAI إطار تقييم داخليًا يحمل اسم HealthBench، يقوم بتقييم الردود وفقًا لمعايير يحددها الأطباء، بما في ذلك السلامة والصحة الطبية وصواب التوجيه. يمثل هذا الإطار محاولة لفرض قدر من الهيكلة في مجال تتسم فيه التفاصيل الدقيقة بأهمية كبيرة، وتحمل فيه الأخطاء تبعات ثقيلة.

الخصوصية: بيئة معزولة ومشفرة
تُبرز OpenAI الخصوصية كمحور أساسي في ChatGPT Health؛ حيث يعمل هذا القسم في بيئة منفصلة ومعزولة داخل التطبيق. تُحفظ المحادثات الصحية ومصادر البيانات المربوطة والملفات المرفوعة بمعزل تام عن الدردشات المعتادة، ولا تنتقل هذه البيانات إلى "ذاكرة" ChatGPT العامة، كما تُشفّر المحادثات في هذه المساحة.

تضيف الشركة أن المحادثات الصحية لا تُستخدم لتدريب النماذج الأساسية. يبقى مدى كفاية هذه الضمانات لجميع المستخدمين سؤالًا مفتوحًا، لكن الهيكلية المعمارية للخدمة تشير بوضوح إلى إدراك OpenAI لحساسية هذا المجال.

وصول إلى السجلات الطبية في الولايات المتحدة
تذهب الخدمة خطوة أبعد في الولايات المتحدة؛ حيث تتيح شراكة مع شركة b.well Connected Health إمكان وصول ChatGPT Health - بعد الحصول على إذن المستخدم - إلى السجلات الصحية الإلكترونية الحقيقية من آلاف مقدمي الخدمات. يتيح ذلك للخدمة تلخيص تقارير المختبر الرسمية أو تكثيف تواريخ طبية طويلة وتحويلها إلى ملخصات قابلة للقراءة والاستيعاب.

خارج الولايات المتحدة، تبدو القدرات أكثر محدودية إلى حد كبير، بسبب اختلاف الأطر التنظيمية والقانونية بين الدول.

تأثير محتمل على علاقة الطبيب بالمريض
يمكن أن تظهر آثار لاحقة على مزودي الرعاية الصحية أيضًا؛ فإذا وصل المرضى إلى مواعيدهم ولديهم فهم أولي لبياناتهم، وهم ملمّون بالاتجاهات الصحية العامة لديهم، ومجهَّزون بأسئلة مركزة، فقد تصبح الاستشارات أكثر كفاءة، فيقضون وقتًا أقل في فك رموز الأرقام، ووقتًا أكبر لمناقشة الخيارات الطبية واتخاذ القرارات.

ويطفو على السطح سؤال متكرر هو: هل ينبغي للأطباء أن يقلقوا؟ يؤكد المقال أن الجواب "لا" بشكل جدي؛ فالذكاء الاصطناعي ليس متخصصًا طبيًا، ولا يفحص المرضى، ولا يتحمّل مسؤولية قانونية، ولا يمكنه أن يحل محل الحكم السريري والخبرة والمساءلة، فلا يغيّر ChatGPT Health هذه الحقيقة، ولا تمثل الخدمة طريقًا مختصرًا للتشخيص الذاتي، ولا ينبغي التعامل معها بهذه الطريقة.

مسؤولية مشتركة وحدود الاستخدام
ما يغيّره ChatGPT Health هو نقطة الانطلاق في الحوار الصحي؛ حيث يمكن أن يساعد، عند استخدامه بشكل مسؤول، في دفع الناس إلى التفاعل مع معلوماتهم الصحية بدلًا من تجنبها. وفي المقابل، قد يسهم سوء استخدامه في تعزيز يقين زائف أو تأخير رعاية ضرورية.

تتوزع المسؤولية - كما يذكر المقال - بين الأداة والمستخدم؛ حيث يجب على الأفراد إدراك تبعات الخصوصية، وطلب المشورة المهنية عندما تكون المسألة مهمة، والتعامل مع إرشادات الذكاء الاصطناعي باعتبارها مدخلًا واحدًا ضمن عدة مصادر، وليس جوابًا نهائيًا.

Ahmad AlQaisi

مدون وصانع محتوى تقني

قد يعجبك أيضاً

GR 2

منذ يوم واحد مضت

عام 2026 الإبداع التقني والتحول الرقمي الشامل – أهم 10 اتجاهات لا يمكن تجاهلها

اكتشف أهم التقنيات المتوقعة في عام 2026 والتي ستحدث ثورة في العالم: الذكاء الاصطناعي المتطور، السحابة 3.0، الروبوتات، والأمن السيبراني.…

الامنالسيبراني 2

منذ يوم واحد مضت

أهمية الأمن السيبراني وأنواعه وأساليب الحماية الحديثة ضد الهجمات الإلكترونية

اكتشف أهمية الأمن السيبراني، وأنواعه، وأساليب الحماية المتقدمة ضد الاعتداءات الإلكترونية، مثل التصيد الاحتيالي وهجمات برامج الفدية. دليل متكامل لحماية…

التعليقات

تابعنا

موبايل كوم | MobileCoom © 2026 جميع الحقوق محفوظة | موبايل كوم | MobileCoom.