Поддержать команду Зеркала
Беларусы на войне
  1. Эксперты: Под Купянском российское командование отправляет солдат на штурмы под угрозой расстрела
  2. В США рассекретили документ о причастности Кремля к убийствам оппонентов за рубежом
  3. Всем, кто годен к армии, напрячься. Юристы рассказали «Зеркалу» о нововведениях в законодательство о призыве
  4. Не только «тунеядцы». Лукашенко упомянул еще одну категорию людей, от которых хочет избавиться — похоже, опять через насилие
  5. ISW: Россия обеспокоена расходами на продолжение войны в Украине, особенно в части компенсаций для солдат
  6. «Огромная стена воды поднялась из-за горизонта». 20 лет назад случилось самое страшное цунами в истории — погибла почти четверть миллиона
  7. В торговле Беларуси с Польшей нашелся аномальный рост по некоторым позициям — словно «хапун» перед закрывающимся железным занавесом
  8. Беларусь разделят на две части. В последнюю неделю ноября ожидается разная погода на западе и востоке страны
  9. По «тунеядству» вводят очередное изменение


Группа ученых оценила потенциал чат-бота ChatGPT как инструмента самодиагностики распространенных ортопедических заболеваний. Исследование было опубликовано в Journal of Medical Internet Research.

Изображение используется в качестве иллюстрации. Фото: Pixabay.com
Изображение используется в качестве иллюстрации. Фото: Pixabay.com

Авторы исследования в течение пяти дней задавали ChatGPT одни и те же вопросы, которые касаются пяти популярных ортопедических заболеваний: синдром запястного канала, шейная миелопатия, стеноз поясничного отдела позвоночника, остеоартрит коленного сустава и остеоартрит тазобедренного сустава. И на основе некоторых данных об этих заболеваниях просили поставить диагноз и дать рекомендации.

Ученые отметили, что точность ChatGPT для самостоятельной диагностики пяти распространенных ортопедических заболеваний была непостоянной. К примеру, синдром запястного канала чат-бот верно диагностировал в 100% случаев, а вот шейную миелопатию только один раз из 25. В 80% случаев ИИ рекомендовал пользователям обратиться к врачу и часто давал неточные рекомендации относительно госпитализации пациентов.

«Учитывая риск вреда при самостоятельной диагностике без медицинского наблюдения, было бы разумно, чтобы ИИ предупреждал пациентов о необходимости обратиться за экспертным медицинским мнением», — подытожили исследователи.