
منبع: Wccftech — گزارش جدید نشان میدهد ادغام Apple Health با سرویس ChatGPT Health مشکلات جدی در دقت و ثبات تشخیصهای پزشکی ایجاد کرده است.
طبق پوشش Wccftech از گزارش منتشرشده در 27 ژانویه 2026 توسط Rohail Saleem، تحقیقی از Washington Post بهسرپرستی Geoffrey Fowler نقاط ضعف جدی در تفسیر دادههای سلامت توسط ChatGPT Health را برجسته کرده است. OpenAI سرویس ChatGPT Health را بهعنوان ابزاری برای ارائه اطلاعات سلامت طراحی کرده بود که کاربران بتوانند برای دریافت بینش شخصی، پروندههای پزشکی و اپلیکیشنهای سلامت را بهصورت امن متصل کنند. این اتصال قرار بود به کاربران کمک کند نتایج آزمایشها را بفهمند، برای مراجعه به پزشک آماده شوند، در برنامههای غذایی یا تمرینی راهنمایی بگیرند و حتی تفاوتهای بیمهای را بر اساس الگوهای سلامت شخصی ارزیابی کنند.
در گزارش Washington Post، Geoffrey Fowler به ChatGPT Health اجازه داد تا به دادههای ثبتشده در اپ Apple Health دسترسی پیدا کند. این دادهها شامل 29 میلیون قدم و 6 میلیون اندازهگیری ضربان قلب بودند که برای ارزیابی سلامت قلبی او در اختیار ربات گذاشته شد. نتیجهای که سیستم ارائه داد، یک نمره “F” برای سلامت قلبی Fowler بود. اما پس از اطلاعرسانی به پزشک او، آن پزشک این ارزیابی را رد کرد و گفت که Fowler در خطر پایینی برای مشکلات قلبی قرار دارد و احتمالاً بیمه حاضر به پوشش آزمایشهای اضافی برای رد تشخیص ربات نخواهد بود.
نکته نگرانکنندهتر اینکه زمانی که Fowler همین پرسش را چند بار تکرار کرد، ChatGPT Health پاسخهای متفاوتی داد و نمرهها بین “B” و “F” نوسان کرد. این تغییرات چشمگیر نشان میدهد که در وضعیت فعلی، سرویس توانایی ارائه یک قضاوت پایدار یا یک تشخیص قابل اعتماد از روی دادههای شخصی را ندارد. Wccftech نتیجه گرفته است که این ادغام نهتنها مطابق انتظار عمل نمیکند، بلکه ممکن است به ابزاری خطرناک تبدیل شود.
گزارش همچنین اشاره میکند که کاربران میتوانند سامانههایی مانند Apple Health، Function و MyFitnessPal را متصل کنند تا ChatGPT بینشهای شخصیسازیشده ارائه دهد. این امکان شامل موارد زیر بود
- کمک در درک نتایج آزمایشها
- آمادگی برای مراجعه به پزشک
- دریافت مشاوره در مورد رژیم غذایی و برنامهٔ تمرینی
- بررسی مزایا و معایب گزینههای بیمهای بر اساس الگوهای سلامت
با وجود وعدههای اولیه دربارهٔ ارائه اطلاعات دقیق و مفید، شواهدی که Washington Post منتشر کرده نشان میدهد تکیه صرف بر تفسیر خودکار این دادهها میتواند کاربران را گمراه کند یا موجب تصمیمگیریهای نادرست مرتبط با سلامت شود. همین موضوع خطرات عملی و حقوقی برای شرکتها و کاربران را به همراه دارد و پرسشهایی دربارهٔ آمادگی فناوریهای مبتنی بر هوش مصنوعی برای کاربردهای حساس پزشکی مطرح میکند.
بهطور محتاطانه، یافتههای گزارش نشان میدهد که تا زمانی که عملکرد و ثبات این سرویسها بهطرز قابلاعتمادی بهبود نیافته است، نباید بهعنوان جایگزین نظر تخصصی پزشک یا ابزار تشخیصی بالینی به آنها اتکا کرد. ادغام دادههای سلامت با مدلهای زبانی پتانسیل دارد اما مثلاً مورد گزارش Washington Post یادآور است که اجرای این ایدهها بدون تضمین دقت و شفافیت میتواند پیامدهای جدی داشته باشد.
منبع: Wccftech — لینک
زمان انتشار منبع: 27 ژانویه 2026
