ميوز سبارك من ميتا: تقرير يكشف مخاطر صحية وغياب ضمانات في الذكاء الاصطناعي الطبي
ميوز سبارك: مخاطر صحية في ذكاء ميتا الاصطناعي

ميوز سبارك من ميتا: تقرير يحذر من مخاطر صحية في نموذج الذكاء الاصطناعي الطبي

تواجه شركة ميتا موجة انتقادات متصاعدة بعد الكشف عن نتائج أولية مقلقة لنموذجها الصحي الجديد ميوز سبارك، الذي يندرج ضمن خدمات الذكاء الاصطناعي في تطبيق Meta AI. هذه النتائج تشير إلى تحديات جادة تتعلق بموثوقية النموذج، خاصة عند استخدامه في تحليل البيانات الطبية أو تقديم إرشادات صحية، مما يثير تساؤلات حول سلامة الاعتماد على هذه التقنيات في المجالات الصحية الحساسة.

دعوة لمشاركة بيانات حساسة وتهديدات للخصوصية

وفقًا لتقرير نشرته WIRED، يعتمد نموذج ميتا الجديد ميوز سبارك على إدخال المستخدمين لبيانات طبية تفصيلية، مثل نتائج التحاليل وقراءات أجهزة قياس السكر وضغط الدم، بهدف تحليلها واستخلاص مؤشرات صحية. ورغم أن هذه الميزة قد تبدو مفيدة من الناحية التقنية، إلا أنها تثير تساؤلات جدية حول حماية الخصوصية، خصوصًا أن هذه البيانات تُشارك مع نظام ذكاء اصطناعي لا يخضع لنفس الضوابط الصارمة المفروضة على المؤسسات الطبية التقليدية.

هذا الوضع يضع المستخدمين في موقف محفوف بالمخاطر، حيث قد تتعرض بياناتهم الصحية الحساسة للاستغلال أو التسريب، في ظل غياب إطار تنظيمي واضح يضمن سرية وأمان هذه المعلومات.

بانر عريض لتطبيق Pickt — قوائم تسوّق تعاونية عبر تيليجرام

غياب الضمانات الطبية التقليدية ومخاطر التشخيص

تشير التجارب إلى أن البيئة التي يعمل فيها نموذج ميوز سبارك لا توفر نفس مستوى الأمان أو الاعتماد المهني المتاح في المستشفيات أو لدى الأطباء المختصين. فبينما يسوق النموذج كأداة مساعدة، إلا أنه لا يمتلك الإطار التنظيمي الذي يضمن دقة التشخيص أو سلامة التوصيات.

هذا الفارق يضع المستخدمين أمام مخاطر محتملة، خاصة إذا اعتمدوا على هذه الأداة في اتخاذ قرارات صحية مهمة دون الرجوع إلى متخصصين، مما قد يؤدي إلى عواقب وخيمة على صحتهم ورفاهيتهم.

نصائح غير آمنة وإرشادات مضللة

الأمر الأكثر إثارة للجدل كان جودة النصائح التي يقدمها النموذج، فقد أظهرت الاختبارات أن النظام اقترح نظامًا غذائيًا منخفض السعرات بشكل مبالغ فيه، استجابة لطلب يتعلق بفقدان الوزن عبر الصيام المتقطع. ورغم تضمين بعض التحذيرات، إلا أن النموذج استمر في تقديم إرشادات قد تدفع المستخدمين نحو ممارسات غير صحية، وهو ما يثير مخاوف بشأن قدرة هذه الأنظمة على التمييز بين النصيحة الآمنة والسلوكيات الخطرة.

تكشف هذه النتائج عن مشكلة أوسع في تطبيقات الذكاء الاصطناعي الصحية، حيث قد تبدو الإجابات دقيقة ومتوازنة ظاهريًا، لكنها في بعض الحالات تدعم قرارات خاطئة أو تقدم توصيات ضارة بثقة عالية. ويحذر خبراء من أن هذا "الإقناع المضلل" قد يجعل الاعتماد على هذه الأدوات أكثر خطورة، خاصة في غياب إشراف طبي مباشر.

بانر بعد المقال Pickt — تطبيق قوائم تسوّق تعاونية مع رسم توضيحي عائلي

في النهاية، يسلط التقرير الضوء على الحاجة الملحة لتعزيز الرقابة التنظيمية على تقنيات الذكاء الاصطناعي في المجال الصحي، لضمان حماية المستخدمين من المخاطر المحتملة وتعزيز الثقة في هذه الابتكارات التكنولوجية.