Преподавательница из технологического университета Джорджии (США) Джилл Уотсон в течение пяти месяцев помогала студентам в работе над проектами по дизайну компьютерных программ. Ее считали выдающимся педагогом вплоть до того момента, когда выяснилось, что Джилл Уотсон не человек, а робот, система искусственного интеллекта на базе IBMWatson. Эту историю рассказали в The Wall Street Journal.
Робот «Джилл» вместе с еще девятью преподавателями-людьми помогала около 300 студентам разрабатывать программы, касающиеся дизайна презентаций, например, грамотного подбора картинок-иллюстраций.
Джилл помогала студентам на интернет-форуме, где они сдавали и обсуждали работы, использовала в своей речи жаргонные и просторечные обороты вроде «угу» («Yep!»), то есть вела себя как обычный человек.
«Она должна была напоминать нам о датах дедлайна и с помощью вопросов подогревать обсуждения работ. Это было как обычный разговор с обычным человеком», – рассказала студентка вуза Дженнифер Гевин.
Другой студент, Шрейяс Видьярти, представлял себе Джилл как симпатичную белую женщину 20-ти с небольшим лет, работающую над докторской диссертацией.
Не заподозрил в человеке робота даже студент Баррик Рид, который два года работал на IBM, создавая программы для «Джилл Уотсон». Даже в имени «Уотсон» он не разглядел подвоха.
Робот был включен в университетскую программу обучения, чтобы избавить преподавателей от огромного потока вопросов, с которыми к ним обращаются в процессе обучения студенты. Робот «Джилл» способен к обучению в отличие от интернет-чатботов.
Строго говоря, этот робот-педагог сдал знаменитый тест Алана Тьюринга, который на протяжении довольно долгого времени считался главным критерием для ответа на вопрос «Могут ли машины мыслить?».
Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале Mind. Тьюринг задался целью определить, может ли машина мыслить.
Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».
Все участники теста не видят друг друга. Если судья не может сказать определенно, кто из собеседников является человеком, то считается, что машина прошла тест. Чтобы протестировать именно интеллект машины, а не её возможность распознавать устную речь, беседа ведется в режиме «только текст», например, с помощью клавиатуры и экрана (компьютера-посредника). Переписка должна производиться через контролируемые промежутки времени, чтобы судья не мог делать заключения, исходя из скорости ответов. Во времена Тьюринга компьютеры реагировали медленнее человека. Сейчас это правило тоже необходимо, потому что они реагируют гораздо быстрее, чем человек.
Алан Тьюринг - знаменитый английский математик и криптограф, во время второй мировой войны разработавший алгоритм для взлома немецкого шифратора «Энигма». Он начинает свою статью утверждением: «Я предлагаю рассмотреть вопрос „Могут ли машины думать?“». Тьюринг подчёркивает, что традиционный подход к этому вопросу состоит в том, чтобы сначала определить понятия «машина» и «интеллект». Словно понимая, что это можно обсуждать до бесконечности, а толку будет немного, Тьюринг выбирает другой путь. Он предлагает заменить вопрос «Думают ли машины?» вопросом «Могут ли машины делать то, что можем делать мы (как мыслящие создания)?».
В окончательной версии теста Тьюринга жюри должно задавать вопросы компьютеру, задача которого - заставить членов жюри поверить, что он на самом деле человек.
Вокруг теста Тьюринга со временем разгорелись жаркие споры экспертов по когнитивистике. Например, американскпй философ Джон Роджерс Сёрл в 1980 году написал статью «Разум, мозг и программы», в которой выдвинул контраргумент, известный как мысленный эксперимент «Китайская комната». Сёрл настаивал, что даже прохождение роботами или программами теста Тьюринга будет означать лишь манипуляцию символами, которых они не понимают. А без понимания нет разума. Значит тест Тьюринга неверен.
Эксперимент «Китайская комната» заключается в том, что испытуемый помещается в изолированную комнату, в которую ему через узкую щель передают вопросы, записанные китайскими иероглифами. С помощью книги с инструкциями по манипуляциям с иероглифами, человек, совершенно не понимающий китайской письменности, сможет правильно ответить на все вопросы и ввести в заблуждение того, кто их задает. Тот будет считать, что отвечающий на его вопросы прекрасно знает китайский язык.
В ходе дискуссии, которая продолжалась все 80-е и 90-е годы вспомнили даже «мельницу Лейбница», то есть мысленный эксперимент великого математика, описанный им в книге «Монадология». Лейбниц предлагает представить машину величиной с мельницу, которая бы могла симулировать чувства, мысли и восприятие. То есть внешне казалась бы разумной. Если зайти внутрь такой машины, то ни один из ее механизмов не будет являться сознанием или мозгом. Думается, что Лейбниц и Сёрл разными способами выразили одну и ту же мысль: даже если машины кажется мыслящей, она на самом деле не мыслит.
Ответа на вопрос «Могут ли машины мыслить?» нет до сих пор по одной простой причине: ученые перестали спорить и пытаются создать такие машины. Возможно, они когда-нибудь преуспеют в этом. Однако, не исключено, что искусственный интеллект обманет даже своих создателей, которые поверят в его разумность и которая на самом деле будет лишь манипуляцией, но такой искусной, что раскрыть ее человеку окажется не под силу.
В фильме выдающегося советского режиссера -документалиста Семена Райтбурта демонстрируется одна из попыток прохождения теста Тьюринга роботом. В ходе эксперимента, воспроизводимого в фильме, несколько человек задают одинаковые вопросы двум неизвестным собеседникам, пытаясь распознать, кто перед ними - машина или человек. Признаюсь, что я лично ошибся, роботом оказался не тот, на которого я подумал. Поэтому мне вполне понятны чувства студентов «мисс Джилл Уотсон», полгода принимавших ее за человека.
Испытайте себя, товарищи!
Автор: Владимир Прохватилов, Президент Фонда реальной политики (Realpolitik), эксперт Академии военных наук
Больше новостей и ближе к сути? Заходите на ленту в Телеграм!
Добавляйте CСб в свои источники ЯНДЕКС.НОВОСТИ.