Содержание:
- 1 Hollow Knight: Silksong — песнь страданий и радостей. Рецензия
- 2 Почему ИИ никак не сесть на безматричную диету
- 3 Пять причин полюбить HONOR Magic7 Pro
- 4 Пять причин полюбить HONOR X8c
- 5 Обзор умных часов HUAWEI WATCH 5: часы юбилейные
- 6 Фитнес-браслет HUAWEI Band 10: настоящий металл
- 7 Пять причин полюбить HONOR Pad V9
- 8 HUAWEI FreeArc: вероятно, самые удобные TWS-наушники
Участники сообщества Reddit обратили внимание на изменение политики использования популярного ИИ-бота OpenAI ChatGPT. Алгоритм больше не даёт персонализированные медицинские и юридические консультации пользователям, а также не анализирует изображения медицинского характера, включая снимки МРТ, рентгеновские снимки, фотографии кожных поражений и др.

Hollow Knight: Silksong — песнь страданий и радостей. Рецензия
Почему ИИ никак не сесть на безматричную диету
Пять причин полюбить HONOR Magic7 Pro
Пять причин полюбить HONOR X8c
Обзор умных часов HUAWEI WATCH 5: часы юбилейные
Фитнес-браслет HUAWEI Band 10: настоящий металл
Пять причин полюбить HONOR Pad V9
HUAWEI FreeArc: вероятно, самые удобные TWS-наушники
Чат-бот отказывается отвечать на подобные вопросы, подчёркивая, что готов предоставить лишь общую информацию в образовательных целях, но не для постановки диагнозов или выбора лечения каких-либо заболеваний. Отмечается, что перестали срабатывать проходившие ранее уловки, когда ИИ-модель просили рассмотреть гипотетическую ситуацию, чтобы получить интересующую информацию. На этот раз срабатывает механизм защиты и ChatGPT предоставляет только общие консультации, а для более детального изучения проблемы рекомендует обратиться к соответствующему специалисту.
Представители OpenAI не комментировали изменения в политике использования ChatGPT, но, скорее всего, они были внесены, чтобы избежать судебных разбирательств. По статистике, всё больше людей обращаются к чат-боту за медицинскими и юридическими консультациями, результат которых непредсказуем. При этом использование нейросетей в подобных задачах на данный момент регулируется слабо, что может создавать риски как для разработчиков, так и для пользователей.
Ранее глава OpenAI Сэм Альтман (Sam Altman) предупреждал, что на беседы с ChatGPT не распространяются законы о врачебной и адвокатской тайне. Это означает, что суд может потребовать у компании раскрыть переписку, которая будет использоваться в качестве доказательств в ходе какого-либо разбирательства. OpenAI работает с регуляторами для уточнения правового статуса чат-бота, но пока результата достигнуть не удалось.