Различные нейросети, в том числе большие языковые модели, к которым относятся ChatGPT или GigaChat, активно находят применение во многих сферах, в том числе в медицине. Однако врачи в своей массе негативно относятся к применению ИИ в качестве помощника. Как рассказал «Газете.Ru» руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов, такое осторожное отношение оправдано из-за возможности возникновения у ИИ галлюцинаций.
Галлюцинация — это специальный термин (в данном случае применяемый к ИИ), который описывает ситуацию, когда большая языковая модель генерирует текст, в котором есть некоторая фактологическая информация, не соответствующая действительности.
«Вот, например, ситуация, которая произошла со мной. Я попросил у большой языковой модели порекомендовать мне музыку, и она сгенерировала несуществующее название альбома группы, которая мне нравилась. Я потратил 10 минут на поиски этого альбома в интернете до того, как смирился, что это была галлюцинация большой языковой модели», – рассказал Тушканов.
Однако если дело касается таких сфер, как кибербезопасность, медицина или юриспруденция, то цена подобных ошибок крайне высока. Поэтому, по словам специалиста, мы не можем на 100% доверять этим моделям.
«Проблема галлюцинаций, к сожалению, фундаментальная. От нее никуда не деться. Это свойство того, как эти системы устроены. Пока мы не найдем другой способ генерировать язык, не основывая его на авторегрессионных языковых моделях, риск галлюцинаций на 100% не исчезнет», – отметил специалист.
О сферах, в которые уже внедрены большие языковые модели, о профессиях, стоящих первыми в списке на исчезновение из-за ИИ и о главных изменениях, которые произойдут в жизни людей из-за ИИ – в интервью Тушканова «Газете.Ru».
Ранее был представлен ИИ-робот, выражающий эмоции и подстраивающийся под пользователя.