Бутерин заявил, что рост количества дипфейков, генерируемых искусственным интеллектом (ИИ), становится серьезной проблемой в цифровых коммуникациях. Мошенники подделывают аудио и видео, генерируя голос и изображение нужного человека. Особый риск возникает при проверке личности людей во время видеозвонков или транзакций, поэтому сложно различить, где говорит реальный человек, а где — фейк. Для противодействия этой угрозе, Бутерин предложил новаторское решение.
Подход Бутерина заключается в составлении персонализированных секретных вопросов, которые должны стать надежным механизмом аутентификации, поскольку традиционные методы проверки безопасности теряют эффективность. По словам Бутерина, у криптографических подписей есть свои ограничения. Они не помогут в ситуациях, когда ключ может быть скомпрометирован, или если его принуждают авторизовать транзакцию. Поэтому контрольные вопросы устранят эти недочеты. Эти вопросы должны быть составлены в зависимости от опыта и знаний конкретных людей, поэтому постороннему человеку будет сложно дать правильный ответ.
По словам Бутерина, преимущество этого метода заключается в том, что он опирается на человеческую память и личные отношения — в чем проигрывает искусственный интеллект. Используя персональные детали, которые известны только узкому кругу лиц, и которые невозможно найти в Интернете, эти контрольные вопросы могут обеспечить надежную защиту от кражи личных данных и мошенничества, уверяет Бутерин.
Кроме того, можно повысить уровень сложности вопросов, добавив в них конкретики. Сюда относятся заранее согласованные кодовые слова, сигналы о принуждении, многоканальное подтверждение важных транзакций и намеренные задержки при совершении важных действий.
Недавно Бутерин призвал разработчиков осторожнее относиться к внедрению систем ИИ в проекты на основе блокчейна, так как это увеличивает риски разных ошибок. В декабре сооснователь Эфириума и вовсе выразил опасения, что искусственный интеллект может восстать против человечества.