Tag Archives: салиентность

Пока боги еще молодые

богиСейчас на coursera идет курс по нейромаркетингу, который меня естественным образом заинтересовал. Томас Рамсой (Thomas Zoëga Ramsøy), ведущий курса, прошелся по вычислительной нейробиологии (computational neuroscience). В частности, по программе, которая определяет салиентность (saliency – заметность) элементов визуального стимула. Салиентность объекта – это целый ряд его характеристик, которые делают его выделяющимся на фоне других. То может быть плотность, контраст, размер и прочее. Можно сделать объект салиентным и гарантировать, что на него обратят внимание. И вот такие программы эмулируют внимание человека, и создают saliency maps -тепловые карты внимания, аналогичные тем, что получаются методом ай-трекинга. Программа NeuroVision, про которую он говорил, сделана компанией, к которой он имеет прямое отношение. К слову сказать, таких программ сейчас уже довольно много, и я изучал несколько таких еще пару лет назад.

Например, ниже две карты одной рекламы – одна, сделанная программой (слева), и другая, сотворенную вниманием 15 людей (справа). Я сделал это еще в 2012 году:
сравнение карт внимания программы и людейСчитается, что точность их соответствия – около 80-85%. Анализ одной картинки может стоить, в зависимости от программы – от нескольких долларов до вполне приличных сотен. С одной стороны, теоретической, это круто и неплохо, а с другой стороны, практической, давайте посмотрим, как далеко ушел прогресс.

Вот одна из картинок, которая была проанализирована:упаковка кока-колы

Вот как программа сначала оценивает характеристики картинки:
начало анализаА вот как программа обрабатывает картинку:
карта салиентностиМне сразу показалось это неправильным, потому что, проанализировав сотни картинок, «пропущенных через глаза» реальных людей, у меня тоже, видимо, образовалось интуитивное представление о салиентности. Оно, в большинстве случаев, ошибочное, но не настолько же! На днях представился случай поставить эту картинку в исследование, и вот как увидели эту же картинку 10 человек, 5 мужчин и 5 женщин:
тепловая карта вниманияРазница существенная. С практической точки зрения, сегодня полагаться на такую программу я бы не стал. Если на кону стоит важная задача – дизайн упаковки, которую напечатают миллионным тиражом, или реклама, которую развесят на несколько месяцев тысячами плакатов, или дизайн помещения, то верить результатам программы было бы неразумно. А зачем тогда вообще? Если анализу нельзя особо доверять, то и задачу, которую он решает, не стоит анализировать.

Интересно, что математические модели, которые анализируют изображения можно учить, учить и учить, скармливая им реальные результаты и давая обратную связь попыток, и делать это пока точность не достигнет результатов, схожих с результатами людей. Вопрос, на мой взгляд, исключительно организационный – потребуется множество ресурсов, чтобы это осуществить. Но главное – это можно сделать, и не видно каких-то неосуществимых задач.

Давайте пофантазируем, что это сделано – после нескольких лет работы большой команды, которая делала по сотне исследований с ай-трекером каждый день и кормила ненасытную модель, мы получили алгоритм, который с 99% точностью имитирует зрительное внимание человека.

Теперь компьютер может создавать дизайны всего – квартиры, рекламы, гаджета, одежды – так, чтобы добиться поставленной цели. И это лишь ничтожный пустяк. Компьютер теперь понимает эволюционные программы, вшитые в нас, которые и управляют нашим вниманием. Через понимание зрительного внимания он может предполагать о нас невероятно много: насколько мы голодны, и чего именно нам не хватает, когда у нас был секс, и на какой стадии менструального цикла мы находимся, есть ли у нс дети и сколько им лет, каковы шансы принятия практически любого нашего решения в любой ситуации. Посредством кроссмодальности машина будет знать, нравится ли нам запах чего-то, или музыка, которую мы слышим, ткань пальто, которое мы трогаем, и массу чего еще. «Понимание» зрительного внимания – один из ключей к пониманию работы нашего мозга. Без преувеличения можно сказать, что компьютер будет знать о нас на порядки больше, чем мы сами. Фактически, еще до того, как мы захотели совершить какой-то поведенческий акт, машина уже, с большой вероятностью, понимает, что это будет, то есть раньше, чем это станет сознательной мыслью в нашем мозге. Выбор поведения, будь то покупка товара или выбор партнера для совместной жизни будет в виде альтернатив с подсчитанным вероятностным исходом, представленных машиной. Но для каких целей и кем именно будут считаться эти вероятности?

Если это будет опираться на древние эволюционные программы, то грубо говоря, целями станут выживание и размножение, причем не обязательно индивидуального организма. Если программа говорит «сделай так», то у нас нет ни малейшего шанса проверить, во благо лично нам она это советует, либо во благо вида: ведь программа должна быть связана с другими людьми (в идеале, со всеми) и должна корректировать свои вычисления. Все наши неосознаваемые процессы программа отслеживает, а то, что приходит к нам в сознание, она видит заранее.

Компьютер станет нашим богом, которому ведомы наши чаяния и предположения, а его мотивы и алгоритмы будут так же скрыты от нас, как неизвестны нам причины наших поступков сегодня. Религия, с этой точки зрения, выглядит как интуитивное предвосхищение полного и безусловного рабства и покорности перед кем-то, кто знает, что нам следует делать. Делать без объяснений и сопротивления, без надежды на понимание, соглашаясь на выбор, который сделан ради неведомых нам целей. Смартфон, который мы держим в руках уже сегодня – наш маленький, но быстро взрослеющий растущий божок, которого мы сами создали.

Объем сознания – ничтожная лужа, в сравнении с морем неосознаваемых процессов, происходящих в нашем мозге. Если бы у нас не было сознания, мы бы не парились по всем этим вопросам, а мирно кушали бы, спаривались и спали. Зачем оно появилось и что нам с ним делать – вот вопрос, на который мы должны ответить, пока компьютеры могут моделировать наше поведение лишь на 80%, и наш молодой бог не подрос…