Svinkovod.ru

Бытовая техника
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Может ли компьютер мыслить

Может ли компьютер мыслить

Александр Ветушинский
Человек и компьютер Просмотров: 1264

Человек и компьютер В 1949 году Алан Тьюринг разработал алгоритм шахматной игры. Несмотря на внушительные размеры и не менее внушительную стоимость компьютеров того времени (один из первых про­граммируемых компьютеров, ENIAC, весил 30 тонн, занимал площадь в 63 м2 и стоил полмиллиона дол­ларов), выполнять подобные задачи они были не в состо­янии. Единственное, что оставалось Тьюрингу, — самому превратиться в компьютер.

Надо заметить, что Тьюринг хорошо разбирался в пре­вращениях. Когда человек оказался не способен собствен­ными интеллектуальными усилиями взломать немецкий шифратор Enigma, именно Тьюринг понял, что интел­лектуальные усилия — это не что-то принципиально человеческое, и пускай там, где человеческого интеллекта не хватает, думает машина. Но как только выяснилось, что существующие машины не способны сыграть с человеком в шахматы, в то время как шахматная партия двух людей довольно легко реализуема, то опять-таки именно Тью­ринг понял, что первую в истории шахматную программу стоит запустить на компьютере под названием «Человек».

В 1952 году, буквально за несколько месяцев до обвине­ния в гомосексуализме, Тьюринг все-таки успел сыграть две партии в качестве компьютера. Одну компьютер выи­грал, другую — проиграл. Тьюринг-компьютер действовал следующим образом: после каждого хода оппонента он вычислял, какое действие сделала бы машина, и поступал так, как следовало поступать в соответствии с написанной программой. Логическим завершением этой истории, как известно, стала победа компьютера Deep Blue над чемпио­ном мира по шахматам Гарри Каспаровым в 1997 году.

Урок, который преподнес нам Тьюринг, позволяет иначе отнестись к вопросу «Может ли машина мыслить?», ко­торый в 1950-м году сам же Тьюринг и сформулировал. Компьютер точно так же способен мыслить, как и чело­век способен вычислять. Просто в качестве компьютеров люди, как выяснилось, не так уж и хороши, но вот будут ли машины не так уж плохи в качестве возможной замены людей — пока еще неизвестно.

В любом случае, мы видим то, что мы видим: людей интересуют только люди. За четыре года до вопроса Тью­ринга о возможности мыслящих машин, журналисты уже назвали упомянутый ENIAC гигантским мозгом. То есть с момента появления компьютеров, им было отказано в существовании. Только человек в подлинном смысле существует, а все остальное — через него и ради него.

Здесь мы имеем дело с первой линией ущемления прав компьютера, которую условно можно назвать естествен­нонаучной (так как речь идет о влиянии вопроса «Может ли машина мыслить?» на исследования в области ис­кусственного интеллекта и когнитивных наук). Но есть и вторая линия, которую условно можно назвать гума­нитарной. В ней также игнорируется компьютер, но на этот раз речь идет о причинах и предпосылках, которые привели к появлению тьюринговского теста. С точки зрения «гуманитариев», тест Тьюринга — это не-необходи­мый эффект совпадения ряда исторических и культурных событий, в числе которых особое место занимает англий­ская нетерпимость к гомосексуалистам в середине ХХ века. И действительно, вдохновением для теста послужила игра в имитацию, в которой экзаменатор, переписываясь с человеком из другой комнаты, должен сделать вывод, с кем он переписывается — с мужчиной или женщиной. И если компьютерная программа, не способная ввести нас в заблуждение, что мы общаемся именно с человеком, а не с машиной, не обладает сознанием, то, видимо, и мужчина, не способный убедить нас в том, что он женщи­на, сознанием также не обладает. И в обратную сторону: если даже машина может получить права и быть признана мыслящей, то почему бы не наделить правами и тех лю­дей, правильность сознания которых вызывает у кого-то сомнения. В очередной раз: люди, люди, люди…

Ответить на подобное ущемление в правах могла бы раз­ве что медиатеория. Она хотя бы учитывает, что не только люди создают вещи, но и вещи создают людей (точнее, одни вещи создают другие вещи, в числе которых люди). Но даже такой авторитетный исследователь медиа, как Маршалл Маклюэн, вполне исходит из того, что любая технология — это расширение именно человека (не осо­бо обращая внимание на то, что и такая технология, как человек, легко может быть рассмотрена как расширение чего-то нечеловеческого). Но достаточно сделать этот шаг — и мы уже на поле акторно-сетевой теории, кото­рая в этом смысле идет ненамного дальше теории медиа. Ведь ее тоже интересуют посредники и та среда, в которой разворачиваются отношения между объектами. Изучать компьютер означает регистрировать, в какие отношения с кем и чем компьютер входит, и как появление новых связей или же, наоборот, разрывов изменяет и без того текучий объект.

И все-таки акторно-сетевая теория дала важный им­пульс, который вкупе с антикорреляционистским проек­том Квентина Мейясу привел к появлению так называе­мой объектно-ориентированной философии. Совпадение этих двух проектов можно представить так: объектноориентированная философия = принцип симметрии + возможность доступа к объекту-в-себе.

Принцип симметрии проще всего задать посредством трех способов соотношения целого и части. Самый примитивный из них (его можно назвать механицист­ским) предполагает равенство целого сумме своих частей. То есть изучать целое — означает изучать части, а изучать части — означает изучать целое. На смену механицист­скому соотношению приходит системное: целое больше суммы своих частей. И здесь речь уже идет о том, что, сколько бы мы ни работали с частями, целое из этих частей выведено быть не может, так как оно обладает сво­ими собственными свойствами, которых нет ни у одной из частей. И вот на смену этому второму соотношению приходит третье: целое не больше, а меньше своих частей. И дело в том, что любой объект — это всегда и какое-то целое, состоящее из собственных частей, и часть, входя­щая в другое целое. В этом смысле целое не может быть больше своих частей, так как каждая часть этого целого сама является целым. Иными словами, одно конкретное целое не может быть больше суммы целых. А учиты­вая, что каждое целое требует к себе особого внимания, то онтологически неверно заявлять, что такой объект, как человек, лучше или важнее, чем такие объекты, как клочок пыли, галактика Андромеды, инфузория-туфелька, геймпад от PS4, христианский Бог и так далее. В итоге мы получаем плоскую (или симметричную) онтологию, в рам­ках которой каждый объект занимает одинаковое место и претендует на равные права. Конечно, такая онтология не утверждает, что все объекты одинаковы; напротив, они все совершенно различны и требуют разных языков описания, но, будучи объектами, они все равны (это онтологическое равенство). Поэтому вместе с принятием симметрии не­обходимым оказывается отказ от других двух принципов, долгое время игравших важную роль в построении теорий, — масштаба и иерархии.

Читайте так же:
Модуль символ на клавиатуре

Причем отказ от этих двух принципов связан еще и с тем, что плоская онтология оказывается несовместима с антропоцентризмом (само выделение макро- и микро­мира как раз и связано с тем, что в центре стоит человек). Несовместим с антропоцентризмом и проект Мейясу. Очень кратко, пользуясь примером Йоэля Регева, корре­ляционизм можно задать через фигуру Мидаса. Подобно Мидасу, который, к чему бы ни прикасался, все превра­щал в золото, человек — о чем бы он ни подумал — все заражает самим собой. Мы не имеем доступа к столу самому по себе, но к столу, как он нам дан, а дан он нам, к примеру, посредством работы нашего сознания или же языка. Стол превращается либо в некий ментальный отпе­чаток стола, который ни в коем случае не является исход­ным объектом, либо в имя «стол», без которого никакого стола в принципе не существует.

Мы получаем довольно любопытную ситуацию, при ко­торой сознание или язык только и способны дать нам реальность, но в то же время та реальность, которую они нам дают, всегда является лишь ментальной или язы­ковой. Следовательно, сам факт данности реальности посредством работы некоторого посредника оборачивается тем, что нам оказывается дан именно этот посредник, а не реальность. Как сказал бы Деррида, условия возможности реальности совпадают с условиями ее невозможности. Но никто из тех, кто настаивает на работе посредников, не сможет заявить, что ментальная или языковая реаль­ность и есть реальность как таковая, ведь в таком случае сам разговор о посреднике перестанет иметь хоть какой-то смысл (если языковая реальность и есть реальность, то давайте, наконец, говорить о реальности, а не о языке).

Мейясу вновь возвращает в философию возможность говорить о реальности как таковой, причем не просто декларируя эту возможность, но показывая, что в неявном виде посылка о возможности доступа к реальности-в-себе всегда присутствовала в посткантовской философии (а ставка на значимость корреляции напрямую связана именно с кантовским проектом), но даже постструкту­рализм не смог нивелировать это различие. Все корреля­ционисты, по Мейясу, всегда и спекулятивные реалисты, просто не очень последовательные.

Теперь мы можем, наконец, вернуться к началу и не побояться спросить: а что же компьютер вообще такое? Не что это такое для нас, а что это такое само по себе, как новая единица реальности, которой еще недавно не было, но которая теперь встречается нам сплошь и ря­дом? Тьюринг в этом смысле подобен Пастеру — он был первым представителем этой новой реальности. Но, как и Пастер, Тьюринг не мог эту реальность себе присвоить, он мог только попытаться с ней «договориться», понимая, что его могут и предать. В любом случае, тест Тьюринга давал возможность посмотреть на компьютер как на рав­ного нам. Его же антропоцентристская версия, которая, как известно, победила, гласит, что с компьютером можно делать все, что угодно, так как это не человек. Но, как го­ворил Латур, вещи также способны давать сдачу. И сегод­ня для сдачи повод уже есть — куча видеозаписей с избие­нием четырехногого робота Spot от Boston Dynamics.

Но посмотреть на компьютер как на равного нам — не означает посмотреть на него как на человека. Напротив, это означает взглянуть на него как на самоценное сущее и не требовать от него быть нашей копией или копией чего-либо еще. Нужно спросить: что такое компьютер как компьютер? Как он воспринимает мир? Как он воспри­нимает объекты, с ним взаимодействующие, в том числе и человека? Нужны ли они ему? И центральный вопрос, который только и позволяет в условиях собственной че­ловечности узнать что-то ценное о компьютере, — а что, собственно, значит им быть? Любопытно, что как Тью­ринг, так и Джон Сёрл дают немало зацепок для ответа на этот вопрос.

Корреляционизм как таковой в рамках объектно-ори­ентированной философии перестает быть врагом номер один. Враг номер один — это наша собственная, человече­ская корреляция. Ведь любой объект, а не только человек, выстраивает свои отношения с миром посредством своей собственной корреляции. Подобно человеку, стол все заражает самим собой и только через себя воспринимает реальность. И точно также — компьютер. Задача филосо­фии (раз уж никакая другая область к этому не прибли­зилась) — отказаться от человеческой корреляции как ис­ключительной и научиться примерять корреляции других объектов. В том числе и компьютера. Мир — один на всех и один для всех, а не только для человека. Продолжитель­ной эпохе ассиметрий должен наступить конец.

Читайте так же:
Мастер очистки на компьютер

Смогут ли компьютеры когда-нибудь по-настоящему думать?

Концепция мыслящих машин лежит в основе несметного числа фантастических книг и фильмов. Даже в более-менее серьёзных футуристических прогнозах время от времени исходят из предположения, что мы создадим не просто искусственную жизнь, но искусственное сознание. И эта перспектива завораживает. Разумеется, в своих мечтах о мыслящих машинах мы априори считаем, что их мышление будет построено по образу нашего. С определёнными отличиями вроде не отягощённости потребностями тела, эмоциями и прочими затруднениями, связанными с биологическим бытием. Но если вдуматься, то никто не гарантирует того, что машины будут думать, как мы.

А задавались ли вы когда-нибудь вопросом, что имеется в виду под словом «думать»? Да, на интуитивном уровне мы можем осознать своё собственное мышление, человеческое, но что насчёт животных? Думают ли шимпанзе? А вороны? Осьминог?

Допустим, инопланетные разумные формы жизни существуют. Вполне вероятно, что их разум будет настолько сильно отличаться от нашего, что мы даже не сможем осознать их разумность. Кто знает, может быть, инопланетяне уже были где-то поблизости, но из-за фундаментальных различий разума даже не заметили нас. А мы — их.

Безусловно, животные обладают когнитивными способностями, отличными от наших, нацеленными на использование инструментов, понимание причинно-следственных связей, коммуникацию с другими существами, и даже на осознание целенаправленного мышления у других. Вероятно, к «мышлению» нужно отнести все эти задачи. Представим, что нам удалось создать машину, обладающую всеми перечисленными возможностями, то есть, по нашему мнению — думающую. Тогда нам останется только похвалить себя и лечь на диван с чувством выполненного долга. Но сможет ли машина встать на ступень выше, сможет ли она думать как человек? И если сможет, то как нам об этом узнать? Ориентироваться на одно лишь поведение компьютера было бы ошибкой. Если он будет действовать так, словно умеет думать, то это ещё не будет означать, что всё так и есть. Может быть, это будет искусной имитацией, разновидностью философского зомби.

В своё время этот вопрос — как распознать разумность машины — подвигла Алана Тьюринга на создание его знаменитого теста, в течение которого компьютер взаимодействует с человеком посредством текста на экране, и должен в большинстве случаев убедить живого собеседника, что он тоже является человеком. Для Тьюринга всё сводилось именно к поведению машины, а не ко «внутренней цифровой жизни».

Однако для кого-то эта внутренняя жизнь всё же важна. Знаменитый философ Томас Нагель в своей статье «Каково быть летучей мышью?» высказал точку зрения, сознание не отождествляется с мозгом. Есть «что-то, чему нравится» получать сознательные переживания, опыт. То есть в нас есть нечто, чему нравится смотреть на красивые объекты, или заниматься каким-то делом. Человек — это нечто большее, чем набор состояний его мозга.

Но тогда можно задаться вопросом: а может ли существовать «что-то, чему нравится» быть думающей машиной? Допустим, нам когда-нибудь нам удастся создать разумный компьютер. И если при проведении теста Тьюринга человек спросит: «Есть ли у тебя сознание?», то в ответ может получить: «Как бы я об этом узнал?».

Вычисления — и больше ничего?

Согласно современным представлениям, в основе компьютерного мышления должны лежать исключительно вычисления: количество операций в секунду и логических переходов. Но мы не уверены, что мышление — или сознание — есть производная от вычислительной мощности. По крайне мере, в условиях использования двоичных компьютеров. Может ли мышление являться чем-то большим, чем набор алгоритмов? Что ещё нам нужно? А если всё дело лишь в вычислениях, то почему человеческий мозг не слишком-то в этом и силён? Ведь большинство из нас сталкиваются с затруднениями, когда нужно перемножить в уме пару двузначных чисел, не говоря уже о более сложных задачах. Или в нашем подсознании осуществляется какая-то глубокая обработка данных, что в конце концов выражается в ограничении наших сознательных вычислительных возможностей (аргумент в пользу так называемого «сильного ИИ»)?

По сравнению с компьютерами, наши способности по манипулированию необработанными данными никуда не годятся. Зато компьютерам очень плохо даются такие вещи, как языки, поэзия, распознавание голоса, интерпретирование сложных поведенческих шаблонов и формирование всеобъемлющих суждений.

Если способности компьютеров столь отличаются от наших, то как можно ожидать, что в конце концов они смогут думать как мы? Быть может, в будущем компьютеры обретут все черты человеческого мышления в обмен на ухудшение способностей к арифметическим вычислениям?

О вере, сомнении и ценности

Если компьютеры действительно начнут думать как человек, то их разуму также будут свойственны понятия вроде «веры» и «сомнения». А что может означать для компьютера «вера во что-то»? Конечно, если не считать такой тривиальной ситуации, как действие без учёта вероятности ошибки? Сможет ли когда-нибудь произойти так, что компьютер искренне засомневается, но пересилит своё сомнение и всё равно продолжит действовать?

Для человеческого разума огромное значение имеет понятие «ценность». Его можно считать одним из основополагающих, движущих факторов. О чём мы думаем в тот или иной момент времени, и почему мы об этом думаем? Сможет ли компьютерный разум придавать ценность хоть чему-либо? И если да, то чему?

Было бы замечательно, если бы смогли создать компьютер, разделяющий систему человеческих ценностей. Но мы, вообще-то, сами не можем с уверенностью сказать, что это такое, а уж тем более как запрограммировать эту систему. К тому же, если компьютеры смогут программировать сами себя, то им может придти в голову, что ценности можно поменять.

Читайте так же:
Лучший ноутбук за 35000 рублей

Учитывая, сколько сил и ресурсов тратится на создание искусственного интеллекта, сейчас самое время попытаться понять, каким мы хотим видеть мыслящий компьютер. А для этого, возможно, нам нужно сначала постараться понять самих себя.

Могут ли компьютеры действительно думать?

Сегодня я расскажу вам, что из себя
представляет искусственный интеллект.
Данная отрасль информатики получила своё
развитие благодаря известным
университетским центрам США:
Массачусетский технологический институт,
Технологический институт Карнеги в
Питтсбурге, Станфордский университет. В
общем исследователей искусственного
интеллекта, работающих над созданием
мыслящих машин, можно разделить на две
группы. Одних интересует чистая наука и для
них компьютер — лишь инструмент,
обеспечивающий возможность
экспериментальной проверки теорий
процессов мышления. Интересы другой группы
лежат в области техники: они стремятся
расширить сферу применения компьютеров и
облегчить пользование ими.

В настоящее время, однако, обнаружилось,
что как научные, так и технические поиски
столкнулись с несоизмеримо более
серьезными трудностями, чем представлялось
первым энтузиастам. На первых порах многие
пионеры искусственного интеллекта верили,
что через какой-нибудь десяток лет машины
обретут высочайшие человеческие таланты.
Предполагалось, что преодолев период «электронного
детства» и обучившись в библиотеках
всего мира, хитроумные компьютеры,
благодаря быстродействию, точности и
безотказной памяти постепенно превзойдут
своих создателей-людей. Сегодня, я думаю, не
найти человека, который бы согласился с
выше сказанными предположениями.

На протяжении всей своей короткой истории
исследователи в области искусственного
интеллекта всегда находились на переднем
крае информатики. Многие ныне обычные
разработки, в том числе
усовершенствованные системы
программирования, текстовые редакторы и
программы распознавания образов, в
значительной мере рассматриваются на
работах по искусственному интеллекту.
Короче говоря, теории, новые идеи, и
разработки искусственного интеллекта
неизменно привлекают внимание тех, кто
стремится расширить области применения и
возможности компьютеров, сделать их более
«дружелюбными» то есть более похожими
на разумных помощников и активных
советчиков.

Несмотря на многообещающие перспективы,
ни одну из разработанных до сих пор
программ искусственного интеллекта нельзя
назвать «разумной» в обычном понимании
этого слова. Это объясняется тем, что все
они узко специализированы; самые сложные
экспертные системы по своим возможностям
скорее напоминают дрессированных или
механических кукол, нежели человека с его
гибким умом и широким кругозором. Даже
среди исследователей искусственного
интеллекта теперь многие сомневаются, что
большинство подобных изделий принесет
существенную пользу. Немало критиков
искусственного интеллекта считают, что
такого рода ограничения вообще
непреодолимы.

К числу таких скептиков относится и
Хьюберт Дрейфус, профессор философии
Калифорнийского университета в Беркли. С
его точки зрения, истинный разум невозможно
отделить от его человеческой основы,
заключенной в человеческом организме. «Цифровой
компьютер — не человек, — говорит Дрейфус. — У
компьютера нет ни тела, ни эмоций, ни
потребностей. Он лишен социальной
ориентации, которая приобретается жизнью в
обществе, а именно она делает поведение
разумным. Я не хочу сказать, что компьютеры
не могут быть разумными. Но цифровые
компьютеры, запрограммированные фактами и
правилами из нашей, человеческой, жизни,
действительно не могут стать разумными.
Поэтому искусственный интеллект в том виде,
как мы его представляем, невозможен».

В это же время ученые стали понимать, что
создателям вычислительных машин есть чему
поучиться у биологии. Среди них был
нейрофизиолог и поэт-любитель Уоррен
Маккалох, обладавший философским складом
ума и широким кругом интересов. В 1942 г.
Маккалох, участвуя в научной конференции в
Нью-Йорке, услышал доклад одного из
сотрудников Винера о механизмах обратной
связи в биологии. Высказанные в докладе
идеи перекликались с собственными идеями
Маккалоха относительно работы головного
мозга. В течение следующего года Маккалох в
соавторстве со своим 18-летним протеже,
блестящим математиком Уолтером Питтсом,
разработал теорию деятельности головного
мозга. Эта теория и являлась той основой, на
которой сформировалось широко
распространенное мнение, что функции
компьютера и мозга в значительной мере
сходны.

Исходя отчасти из предшествующих
исследований нейронов (основных активных
клеток, составляющих нервную систему
животных), проведенных Маккаллохом, они с
Питтсом выдвинули гипотезу, что нейроны
можно упрощенно рассматривать как
устройства, оперирующие двоичными числами.
В 30-е годы XX в. пионеры информатики, в
особенности американский ученый Клод
Шеннон, поняли, что двоичные единица и нуль
вполне соответствуют двум состояниям
электрической цепи (включено-выключено),
поэтому двоичная система идеально подходит
для электронно-вычислительных устройств.
Маккалох и Питтс предложили конструкцию
сети из электронных «нейронов» и
показали, что подобная сеть может выполнять
практически любые вообразимые числовые или
логические операции. Далее они
предположили, что такая сеть в состоянии
также обучаться, распознавать образы,
обобщать, т.е. она обладает всеми чертами
интеллекта.

Теории Маккаллоха-Питтса в сочетании с
книгами Винера вызвали огромный интерес к
разумным машинам. В 40-60-е годы все больше
кибернетиков из университетов и частных
фирм запирались в лабораториях и
мастерских, напряженно работая над теорией
функционирования мозга и методично
припаивая электронные компоненты моделей
нейронов.

Из этого кибернетического, или
нейромодельного, подхода к машинному
разуму скоро сформировался так называемый
«восходящий метод» — движение от
простых аналогов нервной системы
примитивных существ, обладающих малым
числом нейронов, к сложнейшей нервной
системе человека и даже выше. Конечная цель
виделась в создании «адаптивной сети»,
«самоорганизующейся системы» или «обучающейся
машины» — все эти названия разные
исследователи использовали для
обозначения устройств, способных следить
за окружающей обстановкой и с помощью
обратной связи изменять свое поведение, т.е.
вести себя так же как живые организмы.
Естественно, отнюдь не во всех случаях
возможна аналогия с живыми организмами. Как
однажды заметили Уоррен Маккаллох и его
сотрудник Майкл Арбиб, «если по весне вам
захотелось обзавестись возлюбленной, не
стоит брать амебу и ждать пока она
эволюционирует». Но дело здесь не только
во времени. Основной трудностью, с которой
столкнулся «восходящий метод» на заре
своего существования, была высокая
стоимость электронных элементов. Слишком
дорогой оказывалась даже модель нервной
системы муравья, состоящая из 20 тыс.
нейронов, не говоря уже о нервной системе
человека, включающей около 100 млрд. нейронов.
Даже самые совершенные кибернетические
модели содержали лишь несколько сотен
нейронов. Столь ограниченные возможности
обескуражили многих исследователей того
периода.

Читайте так же:
Лучшие компьютерные колонки 2018

В настоящее время наличие
сверхпроизводительных микропроцессоров и
дешевизна электронных компонентов
позволяют делать значительные успехи в
алгоритмическом моделировании
искусственного интеллекта. Такой подход
дает определенные результаты на цифровых
ЭВМ общего назначения и заключается в
моделировании процессов жизнедеятельности
и мышления с использованием численных
алгоритмов, реализующих искусственный
интеллект. Здесь можно привести много
примеров, начиная от простой программы
игрушки «тамагочи» и заканчивая
моделями колонии живых организмов и
шахматными программами, способными
обыграть известных гроссмейстеров. Сегодня
этот подход поддерживается практически
всеми крупнейшими разработчиками
аппаратного и программного обеспечения.

Я считаю, что пока ещё рано говорить об
искусственном интеллекте. Но восходящий
метод, описанный мною, очень настораживает.
Возможно, пройдёт время, и это станет
реальностью, ведь компьютерные технологии
развиваются очень быстро.

Искусственный разум: когда машины начнут думать как люди

Сможет ли компьютер научиться думать как человек? Этот вопрос возник одновременно с появлением первых вычислительных машин. В поиске ответа на него в 1950 году английский ученый-математик Алан Тьюринг предложил критерий, позволяющий судить о том, что компьютер по своим мыслительным способностям сравнялся с человеком. Этот критерий известен как тест Тьюринга: суть в том, что машина должна ответить на произвольные вопросы собеседника-человека таким образом, чтобы человек не понял, что общается с машиной.

Формально тест Тьюринга считается пройденным, правда, на довольно примитивном уровне сложности. Мыслить как человек компьютер пока что не умеет. Однако современный уровень технологических и вычислительных возможностей позволяет ему за считаные секунды обрабатывать и анализировать колоссальные объемы информации, обучаться на похожих данных, выявляя закономерности и обобщая полученные результаты. Это дает возможность решать конкретные практические задачи на уровне, все более близком к человеческому.

Что умеет ИИ

Хороший пример такой задачи — перевод текста с иностранного языка. С теоретической точки зрения эта задача во многом идентична оригинальному тесту Тьюринга. По мнению лингвистов, одна из функций языка — распознавание принадлежности собеседника к своей группе (именно этим объясняется изобилие местных диалектов, молодежных и профессиональных жаргонов). Если компьютер предложит перевод, неотличимый от речи носителя языка, то носитель наверняка признает в нем члена своей группы, то есть как минимум человека.

Два года назад компания Google почти полностью перевела свой сервис Google Translate на глубокое обучение (Deep Learning). В отличие от предыдущего поколения систем машинного перевода, которые в основном переводили отдельные слова и фразы, современные нейросети рассматривают предложение целиком, что позволяет переводить его не по значению, а по смыслу. Бурный рост объемов данных, в сборе которых участвуют многочисленные умные устройства интернета вещей (IoT), развитие многослойных нейронных сетей, алгоритмы Deep Learning и другие технологические возможности научили обычные компьютеры и мобильные устройства не только читать, слышать, видеть и понимать информацию, но и выполнять сложные задачи на таком же уровне, на котором их бы выполнил и человек.

Соответственно, в разы вырос и объем инвестиций в технологии искусственного интеллекта. Так, по данным Venture Scanner, в 2007 году он составлял всего $500 млн, а в 2017 году — уже свыше $6 млрд. Доходы от внедрения систем искусственного интеллекта, согласно данным Gartner, в 2018 году составят $1,2 трлн, что на 70% выше, чем в 2017 году. А к 2022 году их объем увеличится до $3,9 трлн.

Искусственный интеллект уже активно применяется во множестве отраслей. Что же касается ИТ-компаний, то в них, наверное, не осталось областей, где бы он не использовался. Компания Mail.Ru Group реализовала машинное обучение практически во всех своих продуктах. Это автоматические ответы на письма в «Почте», компьютерное зрение в «Облаке», поиск и рекомендация товаров в сервисах электронной коммерции, таргетированный показ рекламы и многое другое. Компания Samsung разработала систему внутриигровой контекстной рекламы Gadget, в которой объявления не всплывают в виде раздражающих пользователя отдельных сообщений, а плавно встраиваются в игровой процесс. При этом тематика рекламы постоянно меняется в соответствии с предпочтениями геймера. На блокчейне разработана платформа Effect.Ai, которая будет связывать поставщиков и потребителей различных услуг напрямую, без посредников. Искусственный интеллект научился обыгрывать человека в покер и в Dota 2. Принадлежащая Google компания DeepMind, которой уже удалось создать искусственный интеллект, выигравший у чемпиона мира по игре го, сегодня разрабатывает алгоритмы, способные победить человека в игре StarCraft 2. Системы прогнозирования на базе ИИ все шире применяются в спорте и шоу-бизнесе. Так, искусственный интеллект Microsoft Bing в 2018 году практически безошибочно предсказал всех лауреатов премии «Оскар», просчитавшись всего в одном случае.

Неплохие достижения у ИИ в медицине. Появились системы, позволяющие на ранних стадиях диагностировать онкологические заболевания кожи, а также выявлять нарушения в работе сердца по ЭКГ с большей эффективностью, чем кардиолог. В Китае на базе ИИ реализован проект социальной направленности: разработчики создали систему, которая анализировала поведение пользователей в соцсетях и выявляла среди них тех, у кого были суицидальные наклонности, с целью оказать им своевременную психологическую помощь. На сегодняшний день с ее помощью удалось спасти уже более 20 000 человек.

Читайте так же:
Звуковая карта usb creative omni surround

Нейронные сети уже называют Software 2.0. В отличие от классического подхода к разработке (Software 1.0) они не требуют написания пошаговых инструкций для компьютера. Достаточно указать конечную цель (например, выиграть в го), а также задать структуру сети и сигналы для обучения. Далее нейросеть сможет выучить необходимые зависимости в данных для решения задачи, используя имеющиеся в ее распоряжении вычислительные ресурсы.

Чего не умеет ИИ

Что искусственный интеллект пока не умеет делать? В первую очередь это задачи, где сложно принять однозначное решение, где требуется контекстуальный подход в зависимости от условий и ситуации. ИИ не сможет самостоятельно осуществить научное открытие. Одним словом, везде, где нужен полноценный анализ ситуации, а не просто принятие решения, основанного на обучающей выборке данных, пальма первенства будет за человеком.

Конечно, технологии ИИ находятся на пике хайпа, однако нельзя не отметить определенные проблемы, риски и нерешенные задачи, связанные с ними. В первую очередь это, конечно, качество данных. Ведь оно напрямую зависит от того, что мы предоставляем машине в качестве обучающей выборки. Так, разрабатывая свою систему распознавания лиц на фото, Mail.Ru Group столкнулась с такой проблемой, как отсутствие качественных размеченных выборок с лицами азиатского происхождения, детскими лицами, а также фотографиями одних и тех же людей, сделанными в разные годы, по мере их взросления. В результате разработчикам пришлось формировать такие данные самостоятельно, что вылилось в немалые дополнительные затраты.

Хороший пример — разработка беспилотных автомобилей. По сути, здесь практически всегда используется метод supervised learning (обучение путем проб и ошибок). К примеру, компания Google потратила не один год на то, чтобы получить достаточный объем данных и учесть все нюансы беспилотной езды. С 2009 года автомобили Google наездили в беспилотном режиме 3,7 млн километров на дорогах общественного пользования и тестовых полигонах в Калифорнии, Аризоне, Техасе и Вашингтоне, а также более 1,6 млрд километров в режиме компьютерной симуляции. От качества этой работы зависит, насколько грамотно будет ориентироваться автомобиль без водителя на дороге, определять других участников дорожного движения, распознавать объекты на дороге, правильно реагировать на различные ситуации и т. д.

Еще один серьезный недостаток или скорее ограничение технологии искусственного интеллекта заключается в узком спектре применения каждого алгоритма. Для каждой отдельной операции или бизнес-процесса систему искусственного интеллекта приходится очень серьезно дорабатывать. Вряд ли под новую задачу получится адаптировать уже существующую нейросеть, пусть даже специализирующуюся на смежных задачах, поскольку данные будут отличаться. В большинстве случаев изменения будут весьма значительны. Например, сложно будет разработать на базе AI-системы беспилотного автомобиля систему управления беспилотным речным или морским катером. Это ключевая проблема так называемого «слабого» искусственного интеллекта, заточенного под решение конкретной задачи. В свою очередь, «сильный» искусственный интеллект, практическая реализация которого — вопрос будущего, должен уметь не просто алгоритмически оперировать данными и информацией, но понимать их смысл. Например, искусственный интеллект не умеет читать комиксы, не способен сопоставить все картинки с текстом в правильном порядке в соответствии с сюжетом, а с этой задачей справляются даже маленькие дети. Одним из важных шагов в сторону «сильного» ИИ можно назвать разработку капсульных нейронных сетей. Они обрабатывают информацию так, как это делает человеческий мозг, при этом не нуждаются в больших объемах данных для обучающих моделей.

Кто несет ответственность за решения, принятые искусственным интеллектом? Банк может заблокировать важную финансовую транзакцию, беспилотный автомобиль может сбить человека, не заметив его либо приняв за какой-то другой объект. Искусственный интеллект, управляющий системой банковского кредитного скоринга, чаще «отказывает» чернокожим заявителям, чем белым, в получении кредита. Системы распознавания лиц, которые используют в том числе и правоохранительные органы, неплохо различают белых людей, но часто ошибаются при обработке образов чернокожих, особенно женщин. Так, при распознавании лиц темнокожих женщин коммерческие системы ошибаются почти в 35% случаев. Если раньше в основе таких инцидентов был человеческий фактор, то сейчас это bias (искажение) в данных.

Разумеется, это временные проблемы, которые можно решить, предоставив системе более совершенную обучающую выборку данных. Над этим сегодня и трудятся разработчики. В автомобильной индустрии чаще всего отвечать приходится не разработчику AI-системы, а производителю транспортного средства, который установил ее на свою продукцию. Но в большинстве случаев бремя ответственности лежит и на разработчике, и на заказчике. В отличие от обычных систем, работающих в строгом соответствии с программным кодом, который можно проверить на ошибки, модифицировать и т. д., мы не всегда можем заранее предсказать, какой результат нам дадут многослойные нейронные сети и системы глубокого обучения после обработки того или иного массива данных. Так, нейросеть Deep Dream компании Google попросили генерировать изображение гантели. Система справилась с задачей, однако ко всем полученным изображениям гантели была добавлена и рука человека. Иными словами, нейросеть решила, что рука — это неотъемлемая часть гантели.

И все же технологии искусственного интеллекта уже сегодня в ряде случаев облегчают жизнь обычных людей и помогают компаниям в решении множества задач. Несмотря на существующие особенности и «подводные камни», системы на базе AI привлекают заказчиков, в том числе из крупного бизнеса. А многократно растущий с каждым годом объем инвестиций дает основания надеяться на существенный технологический рывок уже в ближайшем будущем.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Adblock
detector