Исследователи проекта по глубокому обучению Google Brain уже научили искусственный интеллект создавать произведения искусства, однако теперь они переходят к чему-то куда более зловещему: генерируемым искусственным интеллектом и независимым от человека системам шифрования. Исследователи Мартин Абади (Martin Abadi) и Девид Андерсен (David Andersen) дали возможность трём тестовым субъектам — нейронным сетям под именами Алиса, Боб и Ева — передать друг другу сообщения, используя метод шифрования, созданный ими самими.
Как сообщает New Scientist, Абади и Андерсен дали каждой нейронной сети свои задачи: Алиса должна была отправить тайное сообщение, которое мог бы прочесть только Боб, в то время как Ева должна была попытаться самостоятельно расшифровать это сообщение и узнать его содержание. Эксперимент начался с простого текстового сообщения, которое Алиса конвертировала в нечитаемую бессмыслицу и которое Боб мог расшифровать с помощью специального ключа. Сначала Алисе и Бобу плохо удавалось скрывать свои секреты, однако после 15 тысяч попыток Алиса выработала свою собственную стратегию шифрования, а одновременно с этим Боб разработал свою стратегию расшифровки. Длина сообщения составила всего 16 бит (каждый бит был либо единицей, либо нулём), поэтому тот факт, что Еве удалось разгадать лишь половину сообщения, означает, что она либо бросала монетку, либо просто угадывала.
Конечно, олицетворение этих трёх нейронных сетей всё немного упрощает. Из-за специфики ИИ даже исследователи не знают, какой метод шифрования использовала Алиса, поэтому эксперимент пока несёт в себе не очень много практической пользы. Однако это всё ещё очень интересное упражнение, которое можно было бы развить, например, с помощью недавно вышедшей второй версии фреймворка глубокого обучения Cognitive Toolkit от Microsoft.
Источник: