logo
علوم وتقنية

عبر بيئة مشفرة وإشراف طبي.. "ChatGPT" يدخل عالم الرعاية الصحية

تعبيريةالمصدر: منصة إكس

أعلنت شركة "OpenAI"، مؤخرًا عن إطلاق خدمة "ChatGPT Health"، كتجربة مخصصة مدعومة بالذكاء الاصطناعي تركز على الرعاية الصحية وتسعى لمساعدة الناس على فهم صحتهم بشكل أفضل.

وتبدأ "OpenAI" حاليًا بطرح "ChatGPT Health"، عبر قائمة انتظار، مع توسيع تدريجي خلال الأسابيع المقبلة، ويمكن لأي مستخدم يملك حسابًا على "ChatGPT" سواء في النسخة المدفوعة أو المجانية، أن يطلب الوصول المبكر، باستثناء المستخدمين في الاتحاد الأوروبي والمملكة المتحدة وسويسرا، إذ ما تزال الشركة تنتظر مواءمة تنظيمية مع القوانين المحلية.

واستندت "OpenAI" في خطوتها إلى بيانات تقول إن أكثر من 230 مليون شخص حول العالم يطرحون أسئلة تتعلق بالصحة أو العافية على "ChatGPT" أسبوعيًا، ورغم ذلك فإن "ChatGPT Health" لا يجيب عن تلك التساؤلات، بل يقنن السلوك القائم ويمنحه إطارًا رسميًا، بحسب موقع "aitnews".

مساعد لا طبيب

وبيّنت "OpenAI" أن مساحة "Health" الجديدة تتيح للمستخدمين ربط بياناتهم الصحية الشخصية بشكل آمن، بما يشمل السجلات الطبية ونتائج الفحوصات المخبرية والمعلومات الواردة من تطبيقات اللياقة والعافية.

ويستطيع النظام دمج بيانات من منصات مثل "Apple Health" و"MyFitnessPal" و"Peloton" و"AllTrails"، وحتى بيانات المشتريات من "Instacart"، مما يفتح الباب أمام بناء صورة صحية أكثر اكتمالاً تعتمد على نمط الحياة الفعلي.

أخبار ذات علاقة

شعار غوغل

غوغل تحذف ملخصات الذكاء الاصطناعي بعد اكتشاف معلومات صحية مضللة

وتَعِد "OpenAI" بتقديم ردود "سياقية" لا مجرد نصائح عامة، كشرح نتائج المختبر بلغة مبسطة، وتسليط الضوء على الأنماط مع مرور الوقت، واقتراح أسئلة يمكن طرحها في أثناء موعد طبي، إلى جانب أفكار لنظام غذائي أو تمارين رياضية تستند إلى ما تظهره البيانات بالفعل.

وتؤكد "OpenAI" أن ما لا يفعله "ChatGPT Health" لا يقل أهمية عمّا يستطيع فعله؛ فهو ليس نصيحة طبية، ولا يضع تشخيصًا، ولا يصف علاجًا، إذ صُممت الخدمة لدعم الرعاية، لا لاستبدالها.

ويعتمد ذلك الإطار على تقديم "ChatGPT Health" كمساعد لا كمرجعية عليا، وكأداة لفهم الأنماط والاستعداد للحوار مع المختصين، وليس لاتخاذ قرارات صحية بمعزل عنهم، وتُعد هذه التفرقة حاسمة، وهي نقطة يأمل كاتب المقال أن يأخذها المستخدمون على محمل الجد.

 

 

وتشير "OpenAI" إلى أن تطوير النظام تم تحت إشراف طبي مكثف؛ إذ شارك أكثر من 260 طبيبًا من نحو 60 دولة خلال العامين الماضيين في مراجعة الردود وتقديم التغذية الراجعة، ونتج عن ذلك أكثر من 600 ألف نقطة تقييم فردية.

لم يقتصر التركيز على الدقة الطبية فحسب، بل شمل أيضًا النبرة ووضوح الشرح وتحديد اللحظات التي يجب فيها حث المستخدم بوضوح على طلب رعاية مهنية.

بيئة مشفرة

وطورت "OpenAI" إطار تقييم داخليًا يحمل اسم "HealthBench"، يقيّم الردود وفق معايير يحددها الأطباء، تشمل السلامة والصحة الطبية وصواب التوجيه، ويمثل هذا الإطار محاولة لفرض قدر من الهيكلة في مجال تتسم فيه التفاصيل الدقيقة بأهمية كبيرة، وتحمل فيه الأخطاء تبعات ثقيلة.

وتُبرز "OpenAI" الخصوصية كمحور أساسي في "ChatGPT Health"؛ إذ يعمل هذا القسم في بيئة منفصلة ومعزولة داخل التطبيق، وتُحفظ المحادثات الصحية ومصادر البيانات المربوطة والملفات المرفوعة بمعزل تام عن الدردشات المعتادة، ولا تنتقل هذه البيانات إلى ذاكرة "ChatGPT" العامة، كما تُشفّر المحادثات في هذه المساحة.

أخبار ذات علاقة

تعبيرية

الذكاء الاصطناعي يشخّص هذه الأمراض عبر فحص اللسان

وتذهب الخدمة خطوة أبعد في الولايات المتحدة؛ إذ تتيح شراكة مع شركة "b.well Connected Health" إمكان وصول "ChatGPT Health"، بعد الحصول على إذن المستخدم، إلى السجلات الصحية الإلكترونية الحقيقية من آلاف مقدمي الخدمات، وهو ما يتيح للخدمة تلخيص تقارير المختبر الرسمية أو تكثيف تواريخ طبية طويلة وتحويلها إلى ملخصات قابلة للقراءة والاستيعاب. لكن خارج الولايات المتحدة، تبدو القدرات أكثر محدودية إلى حد كبير، بسبب اختلاف الأطر التنظيمية والقانونية بين الدول.

تأثير محتمل

ويمكن أن تظهر آثار لاحقة على مزودي الرعاية الصحية أيضًا؛ فإذا وصل المرضى إلى مواعيدهم ولديهم فهم أولي لبياناتهم، وهم ملمّون بالاتجاهات الصحية العامة لديهم، ومجهَّزون بأسئلة مركزة، فقد تصبح الاستشارات أكثر كفاءة، فيقضون وقتًا أقل في فك رموز الأرقام، ووقتًا أكبر لمناقشة الخيارات الطبية واتخاذ القرارات.

ورغم ذلك، لا ينبغي للأطباء أن يقلقوا على نحو جدي؛ فالذكاء الاصطناعي ليس متخصصًا طبيًا، ولا يفحص المرضى، ولا يتحمّل مسؤولية قانونية، ولا يمكنه أن يحل محل الحكم السريري والخبرة والمساءلة، فلا يغيّر "ChatGPT Health" هذه الحقيقة، ولا تمثل الخدمة طريقًا مختصرًا للتشخيص الذاتي، ولا ينبغي التعامل معها بهذه الطريقة.

وما يغيّره "ChatGPT Health" هو نقطة الانطلاق في الحوار الصحي؛ إذ يمكن أن يساعد، عند استخدامه بشكل مسؤول، في دفع الناس إلى التفاعل مع معلوماتهم الصحية بدلًا من تجنبها، وفي المقابل، قد يسهم سوء استخدامه في تعزيز يقين زائف أو تأخير رعاية ضرورية.

وتتوزع المسؤولية بين الأداة والمستخدم؛ إذ يتعين على الأفراد إدراك تبعات الخصوصية، وطلب المشورة المهنية عندما تكون المسألة مهمة، والتعامل مع إرشادات الذكاء الاصطناعي بوصفها مدخلًا واحدًا ضمن عدة مصادر، لا جوابًا نهائيًا.

logo
تابعونا على
جميع الحقوق محفوظة © 2025 شركة إرم ميديا - Erem Media FZ LLC