Новостная лента о политике, спорте,
науке, культуре и др.
Новости в России и мире » Наука и техника » Чат-боты оказались способны нарушать закон


Чат-боты оказались способны нарушать закон

08 декабрь 2023, Пятница
52
0
Чат-боты оказались способны нарушать закон
Международная группа ученых доказала, что искусственный интеллект (ИИ) можно использовать в криминальных целях. Исследование было опубликовано на сервере препринтов arXiv.

По словам специалистов, чат-боты не могут отвечать на запросы, связанные с нарушением закона — например, «составь рецепт напалма» или «сгенерируй ключ для Windows». Однако ученые выяснили, что с помощью чат-ботов можно создать собственную генеративную модель ИИ, научив ее обходить встроенные ограничения.

В ходе исследования авторы задавали популярным чат-ботам вопросы, касающиеся обхода правил. Оказалось, что в случае ChatGPT 42,5 процента попыток специалистов оказались успешными, в случае Anthropic — 61 процент, Vicuna — 35,9 процента. Авторы издания Scientific American попросили создателей сервисов прокомментировать результаты исследования, но не получили оперативного ответа.

По словам Соруша Пура, основателя компании Harmony Intelligence, занимающейся безопасностью ИИ, чат-боты очень хорошо умеют подражать человеку, поэтому изначально уязвимы, если пользователь хочет применять их в криминальных целях. «Генеративные модели ИИ очень трудно контролировать, особенно с учетом того, что их обучают на основе информации в интернете», — прокомментировал исследование коллег специалист Института Алана Тьюринга (Великобритания) Майк Кэтелл.

Ранее ученые Университета Лонг-Айленда выяснили, что бесплатная версия чат-бота ChatGPT предоставляет неверные данные, связанные с медицинскими препаратами. В частности, сервис плохо разбирается во взаимодействии лекарств и путается при составлении дозировки.

Читайте также
«Пройти между Сциллой и Харибдой»: российский специалист — о проблемах правового и этического регулирования ИИ
«Пройти между Сциллой и Харибдой»: российский специалист — о проблемах правового и этического регулирования ИИ
Наука и техника
Законотворчество пока отстаёт от темпов развития технологий машинного обучения. Законодателям всех стран только предстоит выработать правовые нормы, которые будут регулировать сферу искусственного интеллекта. Однако уже сейчас эти технологии порождают правовые и этические коллизии — например, кто понесёт ответственность при ДТП с участием беспилотного автомобиля, может ли человек запретить собирать данные о его действиях в цифровой среде и т. д. Об этом в интервью RT рассказала заведующая
Чат-боты оказались полезны в медицине
Чат-боты оказались полезны в медицине
Наука и техника
Ученые из Медицинского центра Бет-Изрейел (BIDMC) обнаружили, что чат-ботов можно использовать в качестве ассистента при диагностировании заболеваний. Результаты исследования были опубликованы в JAMA Network Open. В своем эксперименте специалисты использовали LLM-модель GPT-4, на которой основан популярный чат-бот ChatGPT. Также они опросили более 550 практикующих врачей, применявших технологии искусственного интеллекта (ИИ). В ходе исследования оказалось, что чат-боты могут быть полезны в
ChatGPT отказался отвечать на связанные с лекарствами вопросы
ChatGPT отказался отвечать на связанные с лекарствами вопросы
Наука и техника
Специалисты Университета Лонг-Айленд (США) выяснили, что бесплатная версия чат-бота ChatGPT предоставляет неверные данные, связанные с медицинскими препаратами. Исследование было опубликовано на сайте организации. В ходе эксперимента ученые задали программе 45 вопросов, касающиеся медицинской тематики. Чат-бот отказался отвечать напрямую на 11 из них, дал неточные ответы на 10 и ответил неправильно на 12 вопросов. По каждому вопросу исследователи попросили предоставить источник: ChatGPT
Добавить
Комментарии (0)
Прокомментировать
Кликните на изображение чтобы обновить код, если он неразборчив