Исследование показало, что большие языковые модели не способны обучаться самостоятельно и не представляют опасности для людей
Новое исследование: большие языковые модели не представляют экзистенциальной угрозы человечеству
Согласно новому исследованию Университета Бата и Технического университета Дармштадта в Германии, большие языковые модели (LLM), такие как ChatGPT, не способны обучаться самостоятельно или приобретать новые навыки, что означает, что они не представляют экзистенциальной угрозы человечеству.
Исследование, опубликованное в рамках материалов 62-го ежегодного собрания Ассоциации компьютерной лингвистики (ACL 2024), показывает, что языковые модели обладают поверхностной способностью следовать инструкциям и преуспевать во владении языком, однако у них нет потенциала для освоения новых навыков без явных инструкций. Это означает, что они остаются по своей сути контролируемыми, предсказуемыми и безопасными.
Исследовательская группа под руководством профессора Ирины Гуревич из Технического университета Дармштадта в Германии провела эксперименты, чтобы проверить способность моделей выполнять задачи, с которыми модели никогда ранее не сталкивались. Результаты показали, что сочетание способности LLM следовать инструкциям и лингвистических навыков может объяснить как возможности, так и ограничения, демонстрируемые LLM.
«Распространённое мнение о том, что этот тип ИИ представляет угрозу человечеству, препятствует широкому внедрению и развитию этих технологий, а также отвлекает внимание от реальных проблем, требующих внимания», — сказал доктор Хариш Тайяр Мадабуши, специалист по информатике из Университета Бата и соавтор нового исследования.
Доктор Тайяр Мадабуши добавил, что опасения по поводу экзистенциальной угрозы, которую представляют LLM, высказывают не только неспециалисты, но и некоторые ведущие исследователи искусственного интеллекта по всему миру. Однако тесты явно продемонстрировали отсутствие у LLM способностей к сложному мышлению.
«Хотя важно устранить существующий потенциал для неправомерного использования ИИ, такой как создание фейковых новостей и повышенный риск мошенничества, было бы преждевременно вводить правила, основанные на предполагаемых экзистенциальных угрозах», — сказал доктор Тайяр Мадабуши.
Профессор Гуревич добавила, что результаты исследования не означают, что ИИ вообще не представляет угрозы. «Скорее, мы показываем, что предполагаемое возникновение сложных навыков мышления, связанных с конкретными угрозами, не подтверждается доказательствами и что мы можем хорошо контролировать процесс обучения LLM», — сказала она.