искусственный интеллект

06.02.2019, 18:51 Автор: Наталья Мар

Мышление машин

Создавая тесты для оценки искусственного интеллекта, ученые ставят цель определить, насколько интеллект, созданный вне биологической среды, близок к интеллекту человеческого уровня.

Как измерить искусственный интеллект?

Интеллект (wiki) — это способности:

- адаптироваться к новым ситуациям,

- обучаться и запоминать на основе опыта,

- понимать и применять абстрактные концепции,

- использовать свои знания для управления окружающей средой.

Смартфон меняет яркость экрана в зависимости от освещения и заряда батарейки, предугадывает написание слова и автоматически вводит мои пароли, поливает мой огород и убавляет отопление в доме по расписанию или ориентируясь по показаниям датчиков, а программный код внутри него – самая что ни на есть абстракция. Галочки по всем пунктам?

Стоп:

Говоря об интеллекте человека, мы имеем в виду не только это, но еще – представление, воображение, волю, рефлексию, интуицию. Иными словами, «малопонятные понятия», спонтанные и плохо изученные, но, бесспорно, отличающие человека от других животных и машин. Как же оценить искусственный интеллект?

1. Тест Тьюринга.
Идея была предложена Аланом Тьюрингом в 1950 году. В стандартном тесте-игре участвуют трое: игрок А — компьютер, игрок В — человек и игрок С – ведущий. Игрок С общается с двумя другими письменно и не видит своих собеседников. Задачей ведущего является определить, кто из них компьютер, а кто — человек. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор.
0mU6uJqMr9E.jpg
Тест Тьюринга считается пройденным, если компьютеру удается вводить человека в заблуждение хотя бы в 30 % случаев. На сегодняшний день таких машин уже довольно много. В 2014 году полноценный тест с успехом прошла программа «Eugene Goostman» (c результатом 33 %), воссоздав интеллект подростка из Одессы. Таки молодец!

Есть множество вариаций теста Тьюринга, в том числе – обратный. В нем компьютеру необходимо определить, кто его собеседник: человек или машина. Всем поднадоевшая CAPTCHA – разновидность обратного теста Тьюринга. Признайтесь, как часто вам приходилось жаловаться машине, что вы не можете распознать код, и просить заменить изображение? :)
brkAA3zTCqI.jpg
Даже после трёх неудачных попыток меня записывали в люди. Хочу считать это успехом сетевого ИИ, а не дислексией.

По моему мнению, все разновидности теста Тьюринга гораздо эффективнее оценивают способность человека определить родственный интеллект, нежели способность машин к имитации. И уж вовсе не дают ответа на вопрос о мышлении роботов. Тьюринг признавал, что наука еще не разгадала загадку сознания, но не считал, что это препятствие для поиска сознания у машины. Лично я считаю это серьезным препятствием. Если мы не знаем, что и где ищем, вряд ли мы это найдем. Пройдем мимо или примем желаемое за действительное. Именно это пока и происходит.

2. Китайская комната.

Этот мысленный эксперимент в 1980 году опубликовал Джон Сёрл, нанеся ощутимый удар по тесту Тьюринга, теориям о сознании машин и научной фантастике. Суть аргументов Сёрла сводится к тому, что хотя мы и воспринимаем общение с машиной как с чем-то разумным, сам ИИ не осознает, что делает. Он лишь выполняет программу, которую не способен понять.
CfBi7txRvOk.jpg
Представьте, что вы находитесь в изолированной комнате. У вас есть задание: написать ответ на письмо, которое лежит на столе. Письмо – на китайском, а китайским языком вы не владеете. Но в комнате есть подробная инструкция, какие иероглифы использовать, в каком порядке и в каком случае, чтобы правильно составить письмо. Таким образом, благодаря одной только инструкции, адресат получает ответ, который считает сознательным, и искренне считает, что его написал истинный знаток китайского языка. Если он отправит вам в комнату осмысленный вопрос (например, «Кто убил Лору Палмер?»), то получит на него осмысленный ответ (например, «Я убил»). Но при этом вы сами не будете понимать значение иероглифов и не сможете научиться ими пользоваться, поскольку не сможете узнать значение даже одного символа. Вы не узнаете ни о чем вас спросили, ни что вы там ответили. (И за что вас теперь ведут на расстрел).

Мяукнула кошка – мы мяукаем в ответ, потому что так положено. А вдруг мы ее оскорбили на кошачьем? Мы никогда не узнаем :)

Тем не менее, Сёрла критиковали за то, что в своих суждениях он опирается на слишком расплывчатое понятие сознания. Ныне, как и тогда, расходятся мнения о том, что это такое. Кажется, до консенсуса специалистам – как до китайской комнаты.

3. Тест Лавлейс.

Этот тест назван в честь Ады Лавлейс, графини и математика. Красотка, которую считают первым в истории программистом, жила в 19 веке, а сам тест придумали в 2001 году. Первый вариант теста призывал оценить ИИ по способности к творчеству. Машина должна была создать произведение искусства, а судьи - решить, что его автор человек. Тест сочли субъективным. А может, абстракционисты решили, что машины обесценят их творчество. В одной из моих статей ВК (https://vk.com/@-175714472-chya-dusha-v-iskusstve-hudozhnika-ili-nasha) вы уже видели, что мой робот-пылесос рисует не хуже Кандинского.
EBMCTZA3dVM.jpg
Теперь машинам задают определенный художественный стиль или направление в музыке и оценивают, насколько их работы соответствуют традициям жанра.

4. Испытание IKEA.

Автор этого теста Чарли Ортиц, менеджер по искусственному интеллекту. Робот создает по заданию человека структуры из деталей мебели IKEA или кубиков LEGO. По ходу работы машина должна самостоятельно манипулировать деталями, следить за постройкой, отвечать на вопросы и описывать ход работы.
iynKcYvrX84.jpg
Для машин? Серьезно? Судя по прошлой закупке в IKEA, я сомневаюсь, что пройду этот тест.

5. Визуальный тест Тьюринга.

Сотрудники Эксетерского университета в Англии придумали тест, который проверяет, может ли робот «видеть», как человек. Машине предлагают картинку и просят определить расположение того или иного предмета.

Например: где находится котенок? (Конечно, в реальном тесте картинки не такие красочные)
kHXq-2rVVBU.jpg

Варианты ответа:

- на столе

- в сумке

- слева от гангстера в полосатом костюме

- перед бухгалтером в очках

Все ответы формально верные. Но человек скорее выберет вариант «в сумке» (ну, или «на столе»). Поправлюсь: психически нормальный человек.

6. Схемы Винограда.

Тест предложили в 2011 году и назвали в честь учёного Терри Винограда. Машина отвечает на вопросы с двумя вариантами ответа. Вопросы простые, но сформулированы так, что без хорошего чувства языка машине не справиться.

Например: «Клык жорвела не влезал в багажник звездолёта, потому что он был слишком большим. Что было слишком большим?»

Варианты ответа:

- Жорвел

- Багажник звездолёта

То же, но с другим смыслом: «Клык жорвела не влезал в багажник звездолёта, потому что он был слишком маленьким. Что было слишком маленьким?»

Варианты ответа:

- Жорвел

- Багажник звездолёта
OwdEAbK8VI8.jpg
В оригинальном тесте жорвелов, конечно, нет. Но смысл тот же.

Видите? В зависимости от формулировки правильный ответ будет разным. Хотя если честно, хорошее чувство языка не позволит сформулировать вопрос второго типа. Здесь следовало бы написать «Клык жорвела не влезал в багажник звездолёта, потому что тот был слишком маленьким». Тогда и машине станет понятно.

7. Тест Маркуса.

Его предложил учёный Гэри Маркус. Он предлагает включить машине эпизод «Симпсонов». Задача ИИ – найти «смешные» места. Если компьютер понимает юмор, сарказм и иронию, значит, он максимально приблизился к интеллекту человека.
mADTXVHeinw.jpg
Упс. моя бабуля не пройдёт этот тест.

8. Нейронный коррелят сознания.

Это нейробиологический термин. Он означает, что для работы сознания необходимы определенные механизмы и события в мозге. И если нам удастся обнаружить эти корреляты в программном коде машины, значит, перед нами – не внешняя имитация разумного поведения, а истинный разум.

Но о человеческом мозге мы еще слишком мало знаем. И что там за конкретные механизмы сознания – представляем слабо. Стивен Пинкер, критик «китайской комнаты», приводит в качестве примера таких заблуждений научно-фантастический очерк, в котором инопланетяне, посетившие Землю, считают людей неразумными лишь потому, что внутри наших голов – мясо.
pkctFSlkeF4.jpg

И главный вопрос, который следовало бы задать разработчикам тестов и роботов, - зачем нам машины, так сильно похожие на нас по интеллекту? На Земле 7 миллиардов людей – самых настоящих. Так зачем нам еще - пусть даже один такой - но искусственный? Может быть, сила ИИ будущего – в том, чтобы отличаться от человека? Нужно только понять, в чём именно.

* * *
— Эйден, — обратился к роботу Гервин, — я с уверенностью констатирую, что ты обладаешь самосознанием. Ты не отождествляешь себя с суммой частей, из которых состоишь. А это, несомненно, первый шаг к развитию личности. Но мне бы очень хотелось, — добавил он, подавшись вперед, — чтобы, в конце концов, это была здоровая личность нормального человека.
Робот перевел взгляд с профессора на герцога и обратно.
— Профессор… В Империи семьсот триллионов сто пятьдесят миллиардов четыреста восемь миллионов шестьдесят шесть тысяч триста девять нормальных людей, создавать которых гораздо проще и дешевле, чем андроидов. Какой смысл в семьсот триллионов сто пятьдесят миллиардов четыреста восемь миллионов шестьдесят шесть тысяч триста десятом нормальном человеке? Вам лучше не ставить подпись на моей аттестации, потому что я Вас разочарую.

(с) Железный Аспид.

При подготовке статьи использованы материалы wikipedia.org, lookatme.ru и книги S.Pinker “How the Mind Works”.?

Категории: Анонсы



Обновление: 06.02.2019, 18:51 2946 просмотров | 14 комментариев | 1 в избранном

Комментарии

Комментарии могут оставлять только зарегистрированные пользователи!

Войдите на сайт или зарегистрируйтесь, если Вы впервые на ПродаМане.

Загружаются комментарии...

Обсуждения на сайте20