Основоположник теории искусственного интеллекта. Глава I. История развития Интеллектуальных информационных систем

Постройки 20.09.2019

Брянский государственный технический университет Кафедра «Компьютерные технологии и системы» Введение в интеллектуальные системы Лектор: Шкаберин В.А. ЛИТЕРАТУРА 1. 2. 3. 4. 5. Базы знаний интеллектуальных систем / Т.А. Гаврилова, В.Ф. Хорошевский.-СПб.: Питер, 2001.-384 с.: ил. Искусственный интеллект: В 3 кн. Кн. 1. Системы общения и экспертные системы: Справочник / Под ред. Э.В. Попова.- М.: Радио и связь, 1990.-464 с.: ил. Искусственный интеллект.-В 3-х кн. Кн. 2. Модели и методы: Справочник/ Под ред. Д.А. Поспелова.-М.: Радио и связь, 1990.-304 с.: ил. П. Уинстон. Искуственный интеллект / Пер. с англ. В.Л.Стефанюка под ред. Д.А. Поспелова.- М.: Издательство «Мир», 1980.-520 с. Питер Джексон. Введение в экспертные системы.: Пер. с англ.: Уч. пос.-М.: Издательский дом «Вильямс», 2001.624 с.: ил.-Парал. тит. англ. СОДЕРЖАНИЕ: Краткая история искусственного интеллекта Предмет исследования и основные направления исследований в области искусственного интеллекта Трудно формализуемые задачи проектирования Краткая история искусственного интеллекта Идея создания искусственного подобия человека для решения сложных задач и моделирования человеческого разума возникла с древнейших времен (механическая статуя бога Амона в древнем Египте, бог Гефест в мифологии ковал человекоподобные существаавтоматы, Буратино и др.). Первые теоретические работы в области искусственного интеллекта Родоначальник искусственного интеллекта – средневековый испанский философ, математик и поэт Раймонд Луллий в XIII веке попытался создать механическую машину для решения различных задач на основе разработанной им всеобщей классификации понятий. Луллий Раймонд (1235 - 1316) Первые теоретические работы в области искусственного интеллекта (2) В XVIII веке Лейбниц и Декарт независимо друг от друга продолжили эту идею, предложив универсальные языки классификации всех наук. Готфрид Лейбниц (1646-1716) Рене Декарт (1596 – 1650) Рождение искусственного интеллекта как научного направления произошло после создания ЭВМ в 40-х годах XX века. В это время Норберт Винер создал основополагающие работы по кибернетике. Норберт Винер (1894 - 1964) Рождение термина «искусственный интеллект» Термин ИИ – (AI – artifical intelligence (intelligence умение рассуждать разумно)) предложен в 1956 г. на семинаре в Дартсмутском колледже (США). В 1969 г. в Вашингтоне состоялась I Международная объединенная конференция по искусственному интеллекту. Она и узаконила в своем названии термин «искусственный интеллект». Направления искусственного интеллекта 1. Нейрокибернетика 2. Кибернетика «черного ящика» Зарождение нейрокибернетики Основная идея нейрокибернетики «Единственный объект, способный мыслить, человеческий мозг. Поэтому любое «мыслящее устройство» должно воспроизводить структуру человеческого мозга». Основная идея нейрокибернетики (2) Нейрокибернетика ориентирована на программно-аппаратное моделирование структур, подобных структуре мозга. Основа человеческого мозга – нейроны. Усилия сосредоточены на создании элементов, аналогичных нейронам, и их объединении в функционирующие системы. Эти системы называют нейронными сетями или нейросетями. Создание первых нейросетей Первые нейросети созданы Френком Розенблаттом и МакКаллоком в 1956-1965 гг. Это были попытки смоделировать человеческий глаз и его взаимодействие с мозгом. Созданное устройство называлось персептроном и умело различать буквы алфавита. Персептивная модель (персептрон) Создание нейрокомпьютеров и транспьютеров В 1980-х годах в Японии в рамках проекта «ЭВМ V поколения» был создан первый нейрокомпьютер, или компьютер IV поколения. Появились транспьютеры – параллельные компьютеры с большим количеством процессоров. Транспьютерная технология – один из десятка новых подходов к аппаратной реализации нейросетей, которые моделируют иерархическую структуру мозга человека. Основная область применения нейрокомпьютеров – задачи распознавания образов, например идентификация объектов по результатам аэрофотосъемки из космоса. Подходы к созданию нейросетей Аппаратный – создание компьютеров, нейрочипов, микросхем, реализующих необходимые алгоритмы. Программный – создание программ и инструментариев, рассчитанных на высокопроизводительные компьютеры. Сети создаются в памяти компьютера. Гибридный – часть вычислений выполняют специальные платы расширений, часть – программные средства. Кибернетика «Черного ящика» Основная идея кибернетики «черного ящика» «Не имеет значение, как устроено «мыслящее» устройство. Главное, чтобы на заданные входные воздействия оно реагировало так же, как человеческий мозг». Основная идея кибернетики «черного ящика» (2) Главная ориентация этого направления ИИ – поиски алгоритмов решения интеллектуальных задач на существующих моделях компьютеров. Существенный вклад в становление новой науки внесли Джон Маккарти (автор первого языка для задач ИИ- ЛИСП), Марвин Минский (автор идеи фреймовой модели представления знаний), Саймон, Шоу и др. В 1956-1963 г.г. активно велись поиски моделей и алгоритмов человеческого мышления и разработки первых программ на их основе. Были созданы и опробованы различные подходы: Модель лабиринтного поиска (конец 50-х годов). Задача представлялась как некоторое пространство состояний в форме графа, в котором проводится поиск оптимального пути от входных данных к результирующим. Для решения практических задач не нашли широкого применения. Программы описаны в первых учебниках по ИИ – они играют в 15, в шашки, шахматы и др. Эвристическое программирование (начало 60-х годов) – разработка стратегии действий на основе известных, заранее заданных эвристик. Эвристика – правило, теоретически необоснованное, позволяющее сократить количество переборов в пространстве поиска. Использование методов математической логики (1963-1970 г.г.) для решения задач ИИ. Робинсон разработал метод резолюций, который позволяет автоматически доказывать теоремы при наличии набора исходных аксиом. Отечественный ученый Маслов Ю.С. предложил обратный вывод, решающий аналогичную задачу другим способом. На основе метода резолюций француз Альбер Кольмероэ в 1973 г. создал язык логического программирования Пролог. Ньюэл, Саймон и Шоу создали программу «Логик-теоретик», которая доказывала школьные теоремы. Однако логические модели имеют существенные ограничения по классам решаемых задач, т.к. реальные задачи часто не сводятся к набору аксиом и человек не использует классическую логику. В США появились первые коммерческие системы, основанные на знаниях, или экспертные системы (середина 1970-х годов). На смену поиска универсального алгоритма мышления пришла идея моделировать конкретные знания специалистов-экспертов. Стал применяться новый подход к решению задач искусственного интеллекта – представление знаний. Это существенный прорыв в развитие практических приложений искусственного интеллекта. Созданы программы MYCIN (медицина), DENDRAL (химия). Финансирование осуществляется Пентагоном и др. В конце 70-х в Японии объявлено о начале проекта машин V поколения, основанных на знаниях. Проект рассчитывался на 10 лет и включал много квалифицированных специалистов. В результате создан громоздкий и дорогой ПРОЛОГо- подобный язык, не получивший широкого признания. Были достигнуты результаты в различных прикладных задачах, японская ассоциация ИИ насчитывала к середине 90-х годов 40 тыс. чел. Начиная с середины 1980-х годов растут капиталовложения в ИИ, создаются промышленные экспертные системы, ИИ становится одной из наиболее перспективных и престижных областей информатики (computer science). История искусственного интеллекта в России В 1954 г. в МГУ начал свою работу семинар «Автоматы и мышление» под руководством академика Ляпунова А. А. (1911-1973), одного из основателей российской кибернетики. В этом семинаре принимали участие физиологи, лингвисты, психологи, математики. Принято считать, что именно в это время родился искусственный интеллект в России. Как и за рубежом, выделились два основных направления - нейрокибернетики и кибернетики «черного ящика». В 1954-1964 гг. создаются отдельные программы и проводятся исследования в области поиска решения логических задач. В Ленинграде (ЛОМИ - Ленинградское отделение математического института им. Стеклова) создается программа АЛПЕВ ЛОМИ, автоматически доказывающая теоремы. Она основана на оригинальном обратном выводе Маслова, аналогичном методу резолюций Робинсона. Среди наиболее значимых результатов, полученных отечественными учеными в 60-е годы, следует отметить алгоритм «Кора» Михаила Моисеевича Бонгарда, моделирующий деятельность человеческого мозга при распознавании образов. Большой вклад в становление российской школы ИИ внесли выдающиеся ученые Цетлин М.Л., Пушкин В.Н., Гаврилов М.А, чьи ученики и явились пионерами этой науки в России (например, знаменитая Гавриловская школа). В 1965-1980 гг. происходит рождение нового направления - ситуационного управления (соответствует представлению знаний, в западной терминологии). Основателем этой научной школы стал проф. Поспелов Д.А. Были разработаны специальные модели представления ситуаций - представления знаний [Поспелов, 1986]. В ИПМ АН СССР был создан язык символьной обработки данных РЕФАЛ [Тургин, 1968]. Поспелов Дмитрий Александрович Огромную роль в борьбе за признание ИИ в нашей стране сыграли академики А.И. Бергн и Г.С. Поспелов. Поспелов Гермоген Сергеевич 1914 - 1998 Только в 1974 году при Комитете по системному анализу при президиуме АН СССР был создан Научный совет по проблеме «Искусственный интеллект», его возглавил Г. С. Поспелов, его заместителями были избраны Д. А. Поспелов и Л. И. Микулич. В состав совета входили на разных этапах М. Г. Гаазе-Рапопорт, Ю. И. Журавлев, Л. Т. Кузин, А. С. Нариньяни, Д. Е. Охоцимский, А. И. Поло-винкин, О. К. Тихомиров, В. В. Чавчанидзе. По инициативе Совета было организовано пять комплексных научных проектов, которые были возглавлены ведущими специалистами в данной области. Проекты объединяли исследования в различных коллективах страны: «Диалог» (работы по пониманию естественного языка, руководители А. П. Ершов, А. С. Нариньяни), «Ситуация» (ситуационное управление, Д. А. Поспелов), «Банк» (банки данных, Л. Т. Кузин), «Конструктор» (поисковое конструирование, А. И. Половинкин), «Интеллект робота» (Д. Е. Охоцимский). В 1980-1990 гг. проводятся активные исследования в области представления знаний, разрабатываются языки представления знаний, экспертные системы (более 300). В 1988 г. создается АИИ - Ассоциация искусственного интеллекта. Ее членами являются более 300 исследователей. Президентом Ассоциации единогласно избирается Д. А. Поспелов, выдающийся ученый, чей вклад в развитие ИИ в России трудно переоценить. Крупнейшие центры - в Москве, Петербурге, Переславле-Залесском, Новосибирске. В научный совет Ассоциации входят ведущие исследователи в области ИИ - В. П. Гладун, В. И. Городецкий, Г. С. Осипов, Э. В. Попов, В. Л. Стефанюк, В. Ф. Хорошевский, В. К. Финн, Г. С. Цейтин, А. С. Эрлих и другие ученые. В рамках Ассоциации проводится большое количество исследований, организуются школы для молодых специалистов, семинары, симпозиумы, раз в два года собираются объединенные конференции, издается научный журнал. Уровень теоретических исследований по искусственному интеллекту в России ничуть не ниже мирового. К сожалению, начиная с 80-х гг. на прикладных работах начинает сказываться постепенное отставание в технологии. На данный момент отставание в области разработки промышленных интеллектуальных систем составляет порядка 3-5 лет. Предмет исследования и основные направления исследований в области искусственного интеллекта Понятие «ИИ» Искусственный интеллект – это одно из направлений информатики, целью которого является разработка аппаратно-программных средств, позволяющих пользователю-непрограммисту ставить и решать свои, традиционно считающиеся интеллектуальными задачи, общаясь с ЭВМ на ограниченном подмножестве естественного языка. Искусственный интеллект – это область информатики, которая занимается разработкой интеллектуальных компьютерных систем, т.е. систем, обладающих возможностями, которые мы традиционно связываем с человеческим разумом, - понимание языка, обучение, способность рассуждать, решать проблемы и т.д. (Барр и Файгенбаум, 1981 г.) Исследования в области искусственного интеллекта направлены на разработку программ, решающих такие задачи, с которыми сейчас лучше справляется человек, поскольку они требуют вовлечения таких функций головного мозга человека, как способность к обучению на основе восприятия, особой организации памяти и способности делать выводы на основе суждений. Основные направления исследований в области искусственного интеллекта Представление знаний и разработка систем, основанных на знаниях. Программное обеспечение систем искусственного интеллекта Разработка естественно-языковых интерфейсов и машинный перевод Интеллектуальные роботы Обучение и самообучение Распознавание образов Новые архитектуры компьютеров Игры и машинное творчество 1. Представление знаний и разработка систем, основанных на знаниях (knowledge-based systems) Это основное направление в области разработки систем искусственного интеллекта. Оно связано с разработкой моделей представления знаний, созданием баз знаний, образующих ядро экспертных систем. В последнее время включает в себя модели и методы извлечения и структурирования знаний и сливается с инженерией знаний. 2. Программное обеспечение систем ИИ (software engineering for Al) В рамках этого направления разрабатываются специальные языки для решения интеллектуальных задач, в которых традиционно упор делается на преобладание логической и символьной обработки над вычислительными процедурами. Эти языки ориентированы на символьную обработку информации - LISP, PROLOG, SMALLTALK, РЕФАЛ и др. Помимо этого создаются пакеты прикладных программ, ориентированные на промышленную разработку интеллектуальных систем, или программные инструментарии искусственного интеллекта, например КЕЕ, ART, G2 [Хейес-Рот и др., 1987; Попов, Фоминых, Кисель, Шапот, 1996]. Достаточно популярно также создание так называемых пустых экспертных систем или «оболочек» - KAPPA, EXSYS, Ml, ЭКО и др., базы знаний которых можно наполнять конкретными знаниями, 3. Разработка естественно-языковых интерфейсов и машинный перевод (natural language processing) Начиная с 50-х годов одной из популярных тем исследований в области ИИ является компьютерная лингвистика, и, в частности, машинный перевод (МП). Уже первая программа в области естественно-языковых (ЕЯ) интерфейсов - переводчик с английского на русский язык - продемонстрировала неэффективность первоначального подхода, основанного на пословном переводе. Однако еще долго разработчики пытались создать программы на основе морфологического анализа. Неплодотворность такого подхода связана с очевидным фактом: человек может перевести текст только на основе понимания его смысла и в контексте предшествующей информации, или контекста. Иначе появляются переводы в стиле «Моя дорогая Маша - my expensive Masha». В дальнейшем системы МП усложнялись и в настоящее время используется несколько более сложных моделей: применение так называемых «языков-посредников» или языков смысла, в результате происходит дополнительная трансляция «исходный язык оригинала - язык смысла - язык перевода»; ассоциативный поиск аналогичных фрагментов текста и их переводов в сдециальных текстовых репозиториях или базах данных; структурный подход, включающий последовательный анализ и синтез естественноязыковых сообщений. Традиционно такой подход предполагает наличие нескольких фаз анализа: 1. Морфологический анализ - анализ слов в тексте. 2. Синтаксический анализ - разбор состава предложений и грамматических связей между словами. 3. Семантический анализ - анализ смысла составных частей каждого предложения на основе некоторой предметно-ориентированной базы знаний. 4. Прагматический анализ - анализ смысла предложений в реальном контексте на основе собственной базы знаний. Синтез ЕЯ-сообщений включает аналогичные этапы, но несколько в другом порядке. 4. Интеллектуальные роботы (robotics) Идея создания роботов далеко не нова. Само слово «робот» появилось в 20-х годах, как производное от чешского «робота» - тяжелой грязной работы. Его автор - чешский писатель Карел Чапек, описавший роботов в своем рассказе «Р.У.Р». Роботы - это электротехнические устройства, предназначенные для автоматизации человеческого труда. Можно условно выделить несколько поколений в истории создания и развития робототехники: I поколение. Роботы с жесткой схемой управления. Практически все современные промышленные роботы принадлежат к первому поколению. Фактически это программируемые манипуляторы. II поколение. Адаптивные роботы с сенсорными устройствами. Есть образцы таких роботов, но в промышленности они пока используются мало. III поколение. Самоорганизующиеся или интеллектуальные роботы. Это - конечная цель развития робототехники. Основные нерешенные проблемы при создании интеллектуальных роботов - проблема машинного зрения и адекватного хранения и обработки трехмерной визуальной информации. В настоящее время в мире изготавливается более 60 000 роботов в год. Актуальность создания интеллектуальных мобильных роботов Автономные интеллектуальные мобильные роботы предназначены для автоматической работы в заранее неопределенных условиях внешней среды. Они могут применяться в различных областях человеческой деятельности и могут решать различные задачи. Например, доставлять грузы, перемещать различные предметы, производить разведку, производить какую-либо технологическую операцию на большом пространстве (например, уборку помещения) и т.п. Подобные системы готовы заменить человека при выполнении сложных технологических операциях, связанных с повышенным риском или с работой в экстремальных средах, например, в условиях повышенной радиации, давлении или безвоздушном пространстве, а также заменить человеческий труд на непопулярных профессиях. Робот-вертолет Mantis (2003 г.) Австралийские инженеры из организации CSIRO разработали роботвертолёт Mantis ("Богомол"), который способен к автономному полёту - впервые - без использования системы глобального позиционирования (GPS). Высота "Богомола" 0,5 метра, а длина 1,5 метра. При этом новый вертолёт в 4-5 раз легче, чем любой другой беспилотный летательный аппарат, и стоит значительно дешевле. Хотя роботом можно управлять дистанционно, в полёте машина может полагаться исключительно на свой компьютерный мозг и видеокамерыглаза. Специально для вертолёта разработана система инерционного восприятий (Inertial Sensing System) с микроэлектромеханическими датчиками, сделанными из лёгкого сплава магния. Роботы-солдаты Talon,SWORDS (2004 г.) Солдаты с дистанционным управлением появились на свет в результате совместных действий армии США и маленькой компании из Массачусетса под названием Foster-Miller. Эта фирма была в ноябре прошлого года куплена QinetiQ Group PLC, которая, в свою очередь, принадлежит министерству обороны Великобритании (MOD) и американскому холдингу Carlyle Group. Всё началось с роботов, именуемых "Когтями" (TALON). Они находятся на военной службе с 2000 года, побывали в Боснии, Афганистане и том же Ираке, работали своими механическими руками на развалинах ВТЦ после терактов 11 сентября. Их задачами были: обнаружение и обезвреживание взрывчатки вместе с наблюдением за неприятием. И военные качеством выполнения этих задач были довольны. Однако через некоторое время армейские чиновники и сотрудники Foster-Miller, по их же словам, получили известие от солдат. Дескать, нравятся нам "Когти", спору нет, но давайте дадим им хоть какое-нибудь оружие. Идя навстречу пожеланиям военнослужащих, инженеры из армейского арсенала в Нью-Джерси (Picatinny Arsenal) и Foster-Miller всего за шесть месяцев и $2 миллиона вооружили роботов. Так "Когти" превратились в "Мечи" (SWORDS - Special Weapons Observation Reconnaissance Detection Systems), специальные системы обнаружения, разведки и наблюдения с оружием. Именно "Мечи" и окажутся в Ираке по весне. В стандартной комплектации у него имеется лёгкий пулемёт M249 калибра 5,56 миллиметров (750 выстрелов в минуту) или "средний" пулемёт M240 калибра 7,62 (7001000 в минуту). Без перезарядки робот может произвести 300 и 350 выстрелов соответственно. Цена одной машины $200 000. Робот-солдат SWORD в действии Робот-таракан InsBot (2003 г.) Разработкой автоматизированного шпиона в тараканьем стане занимаются исследователи из трёх стран - Франции, Бельгии и Швейцарии. Уже сейчас InsBot способен проникать в группы тараканов, влиять на них и изменять их поведение. В течение десятилетия прикинувшийся тараканом лазутчик будет выводить мерзких насекомых из тёмных кухонных закоулков на чистую воду - туда, где они могут быть уничтожены. Разработчики робота-агента мечтают вовсе не о том, чтобы раз и навсегда извести тараканов. Их замыслы глобальнее. Используя роботов, они хотят управлять животными. Интеллектуальный робот-пылесос (2003 г.) 14.01.03 11:16 Компания iRobot выпустила интеллектуальный пылесос, который получил имя Румба (Roomba). На его создание ушло три года и несколько миллионов долларов. Основные задачи, которые были поставлены перед разработчиками - снизить цену робота и максимально уменьшить энергопотребление. Мощность Румбы - всего лишь 30 ватт против типичных 1000 ватт. Робот снабжен пятью щетками, двумя электромоторами для передвижения и еще тремя - для работы щетками. Мощный мотор, засасывающий любую пыль, в Румбе отсутствует. Его замещают щетки с противовращением, собирающие крупный сор, и маломощный вакуумный моторчик. В результате устройство работает от никелевых аккумуляторов. Колеса робота могут поворачиваться в любую сторону, поэтому он может выехать из самых затруднительных положений. Четыре инфракрасных датчика контролируют расстояние до пола и сразу же сообщают системе управления об уклоне или достижении края ступенек. Система контроля состоит из 8-битного 16 МГц микропроцессора, 128 байт памяти и специализированной операционной системы. Стоимость такого роботизированного пылесоса - $199. Интеллектуальный мобильный робот на основе игрушки (Россия, 2002 г.) Данный робот разрабатывается на кафедре "Проблемы управления" МИРЭА. В данной работе целью являлось создания мобильного интеллектуального робота, который бы для начала реализовывал функции движения к целевой точке в среде с препятствиями. Было решено, что робот должен обладать исключительно системой технического зрения. Целевую точку такому роботу можно будет задать тремя способами: лазерной указкой; оператором на карте; дистанционно через Интернет. П уль т упр ав лен ия м о нито р ПК Р о бо т R .A .D .™ LPT БС VGA A u d io O ut S o ft S o und M ic In D E -1 8 T V In LAN С еть П ита ние кам ер ы 5. Обучение и самообучение (machine learning) Активно развивающаяся область искусственного интеллекта. Включает модели, методы и алгоритмы, ориентированные на автоматическое накопление и формирование знаний на основе анализа и обобщения данных [Гаек, Гавранек, 1983; Гладуп, 1994; Финн, 1991]. Включает обучение по примерам (или индуктивное), а также традиционные подходы из теории распознавания образов. В последние годы к этому направлению тесно примыкают стремительно развивающиеся системы data mining - анализа данных и knowledge discovery - поиска закономерностей в базах данных. 6. Распознавание образов (pattern recognition) Традиционно - одно из направлений искусственного интеллекта, берущее начало у самых его истоков, но в настоящее время практически выделившееся в самостоятельную науку. Ее основной подход - описание классов объектов через определенные значения значимых признаков. Каждому объекту ставится в соответствие матрица признаков, по которой происходит его распознавание. Процедура распознавания использует чаще всего специальные математические процедуры и функции, разделяющие объекты на классы. Это направление близко к машинному обучению и тесно связано с нейрокибернетикой. 6. Распознавание образов (pattern recognition) Традиционно - одно из направлений искусственного интеллекта, берущее начало у самых его истоков, но в настоящее время практически выделившееся в самостоятельную науку. Ее основной подход - описание классов объектов через определенные значения значимых признаков. Каждому объекту ставится в соответствие матрица признаков, по которой происходит его распознавание. Процедура распознавания использует чаще всего специальные математические процедуры и функции, разделяющие объекты на классы. Это направление близко к машинному обучению и тесно связано с нейрокибернетикой. 7. Новые архитектуры компьютеров (new hardware platforms and architectures) Самые современные процессоры сегодня основаны на традиционной последовательной архитектуре фон Неймана, используемой еще в компьютерах первых поколений. Эта архитектура крайне неэффективна для символьной обработки. Поэтому усилия многих научных коллективов и фирм уже десятки лет нацелены на разработку аппаратных архитектур, предназначенных для обработки символьных и логических данных. Создаются Пролог- и Лисп-машины, компьютеры V и VI поколений. Последние разработки посвящены компьютерам баз данных, параллельным и векторным компьютерам [Амамия, Танака, 1993]. И хотя удачные промышленные решения существуют, высокая стоимость, недостаточное программное оснащение и аппаратная несовместимость с традиционными компьютерами существенно тормозят широкое использование новых архитектур. 6. Игры и машинное творчество Это, ставшее скорее историческим, направление связано с тем, что на заре исследований ИИ традиционно включал в себя игровые интеллектуальные задачи - шахматы, шашки, го. В основе первых программ лежит один из ранних подходов - лабиринтная модель мышления плюс эвристики. Сейчас это скорее коммерческое направление, так как в научном плане эти идеи считаются тупиковыми. Кроме того, это направление охватывает сочинение компьютером музыки [Зарипов, 1983], стихов, сказок [Справочник по ИИ, 1986] и даже афоризмов [Любич, 1998]. Основным методом подобного «творчества» является метод пермутаций (перестановок) плюс использование некоторых баз знаний и данных, содержащих результаты исследований по структурам текстов, рифм, сценариям и т. п. 6. Другие направления ИИ - междисциплинарная наука, которая, как мощная река по дороге к морю, вбирает в себя ручейки и речки смежных наук. Стоит лишь взглянуть на основные рубрикаторы конференций по ИИ, чтобы понять, насколько широко простирается область исследований по ИИ: генетические алгоритмы; когнитивное моделирование; интеллектуальные интерфейсы; распознавание и синтез речи; дедуктивные модели.

знание может храниться вне мозга. Их доводы таковы:
  1. познание как процесс поддаётся формализации;
  2. интеллект можно измерить (коэффициент умственного развития IQ - intelligence quotient 1Термин ввёл в научный обиход В. Штерн (1911 г.) по методике расчёта А. Бине (1903 г.). , объём памяти, реактивность психики и др.);
  3. к знанию применимы информационные меры (бит, байт и др.). Пессимисты считают, что искусственный интеллект не способен хранить знание, так как он - всего лишь имитация мышления. Пессимисты полагают, что человеческий интеллект уникален, что творчество не поддаётся формализации, мир цел и неделим на информационные дискреты, что образность мышления человека гораздо богаче логического мышления машин и т.д.

Кто прав в этом споре, покажет время. Отметим только, что память машины хранит то, что в неё записано, а это могут быть не только знания как высшая форма информации, но и просто данные, которые могут содержать знания, дезинформацию и информационный шум (см. "История развития информатики. Развитие представлений об информации. На пути к информационному обществу"). Чтобы из данных извлечь знания, машина подобно человеку должна поставить цель ("что я хочу знать?") и согласно этой цели отбирать ценную информацию (ведь хранят ценности, а не всё, что попало). Сможет ли искусственный интеллект сам формулировать приемлемые цели и осуществлять искусственный отбор ценной информации под эти цели - очередная проблема теории и практики искусственного интеллекта. Пока эту работу выполняет человек - в экспертных системах, в программировании роботов, в АСУТП и т.п. Свободные машины (см. выше) должны будут выполнять эту работу сами. При этом обозначенная проблема может обостриться из-за того, что в сетях, откуда машины "скачивают" знания, может оказаться много "мусора" и губительных вирусов.

4.4. История развития идей искусственного интеллекта и их реализаций

Впервые идеи создания искусственного интеллекта возникли в XVII в. (Б. Спиноза, Р. Декарт, Г.В. Лейбниц и др.). Речь идёт именно об искусственном интеллекте, а не о механических куклах, уже известных в ту пору. Основоположники теории искусственного интеллекта были, естественно, оптимистами - они верили в реализуемость своей идеи:

По психологическому закону сохранения ("сумма удовольствий и страданий равна нулю") тут же появились пессимисты (Ф. Бэкон, Дж. Локк и др.), которые посмеивались над оптимистами: "Ай, бросьте!". Но любая идея в науке, однажды возникнув, продолжает жить, несмотря на препоны.

Идея искусственного интеллекта стала обретать реальные черты лишь во второй половине XX в., особенно с изобретением компьютеров и "интеллектуальных роботов". Для реализации идеи потребовались также прикладные разработки в математической логике, программировании, когнитивной психологии, математической лингвистике, нейрофизиологии и других дисциплинах, развивающихся в кибернетическом русле взаимосвязи организмов и машин по управляющим и коммуникативным функциям. Само название " искусственный интеллект " возникло в конце 60-х гг. XX в., а в 1969 г. состоялась Первая Всемирная конференция по искусственному интеллекту (Вашингтон, США).

Вначале искусственный интеллект развивался в так называемом аналитическом (функциональном) направлении, при котором машине предписывалось выполнять частные интеллектуальные задачи творческого характера (игры, перевод с одного языка на другой, живопись и др.).

Позже возникло синтетическое (модельное) направление, согласно которому предпринимались попытки моделировать творческую деятельность мозга в общем смысле, "не размениваясь" на частные задачи. Конечно, это направление оказалось более трудным в реализации, чем функциональное направление. Объектом исследования модельного направления стали метапроцедуры человеческого мышления. Метапроцедуры творчества - это не сами процедуры (функции) интеллектуальной деятельности, а способы создания таких процедур, способы научиться новому виду интеллектуальной деятельности. В этих способах, вероятно, и скрыто то, что можно назвать интеллектом. Наличие метапроцедур мышления отличает истинный интеллект от кажущегося, поэтому реализация машинными средствами метапроцедур творчества стала чуть ли не основной задачей модельного направления. Не что, а как изобретаешь, как решаешь творческую задачу, как обучаешься (самообучаешься) новому? - вот вопросы, заложенные в реализацию моделей человеческого творческого мышления.

В рамках модельного направления нашли развитие, в основном, две модели интеллекта. Хронологически первой была лабиринтная модель, реализующая целенаправленный поиск в лабиринте альтернативных путей к решению задачи с оценкой успеха после каждого шага или с позиций решения задачи в целом. Иными словами, лабиринтная модель сводится к перебору возможных вариантов ( по аналогии с перебором вариантов выхода из лабиринта). Успех (или неудачу) в выборе того или иного варианта можно оценивать на каждом шаге (то есть непосредственно после выбора), не предвидя окончательного результата решения задачи, или, наоборот, выбор варианта на каждом шаге производить, исходя из окончательного результата. Например, возьмем шахматы. Можно оценивать результат каждого хода по непосредственному выигрышу или проигрышу после этого хода (выигрышу или потере фигур, получению позиционного преимущества и т.д.), не задумываясь об окончании партии. При таком подходе подразумевается, что успех на каждом ходе приведёт к успеху всей партии, к победе. Но это вовсе не обязательно. Ведь можно заманить короля соперника в матовую ловушку, жертвуя в серии ходов фигуры, теряя кажущееся позиционное преимущество. При таком подходе частные успехи на каждом ходе ничего не значат по сравнению с последним победным ходом - объявлением мата.

Первый подход в лабиринтном моделировании получил свое развитие в эвристическом программировании , второй подход - в динамическом программировании . По -видимому, динамический подход эффективнее эвристического, если говорить о шахматах. Во всяком случае, сильные шахматисты, сами того не предполагая, использовали именно динамический подход против шахматных программ, работающих в эвристическом режиме, и своим естественным интеллектом побеждали лабиринтный искусственный интеллект . Но так было в 60-70 гг. XX в. С тех пор шахматные программы усовершенствовались настолько (в том числе, за счёт внедрения динамического подхода), что сейчас успешно противостоят чемпионам мира.

Лабиринтные модели широко использовались не только при создании шахматных программ, но и для программирования других игр, а также для доказательства математических теорем и в других приложениях.

Вслед за лабиринтными моделями искусственного интеллекта появились ассоциативные модели . Ассоциация (от лат. association - соединение) - связь психологических представлений (обусловленная предшествующим опытом), благодаря которой одно представление , появившись в сознании, вызывает другое представление ( по принципу сходства, смежности или противоположности). Например, Нобелевский лауреат академик И.П. Павлов, проводя свои известные опыты с собаками, заметил, что если одновременно с приёмом пищи собака видит включённую лампу, то потом стоило только включить лампу, как у собаки начинал выделяться желудочный сок, хотя пищу ей не предлагали. В основе этого условного рефлекса ассоциация по принципу смежности. Ассоциация по сходству описана в рассказе А.П. Чехова "Лошадиная фамилия". Ассоциация по противоположности может быть описана логической схемой: если "не А", значит "А". Например, если днём я увидел белую кошку, она тут же ассоциировалась у меня с чёрной кошкой, которая утром перебежала дорогу.

В ассоциативных моделях предполагается, что решение новой, неизвестной задачи так или иначе основано на уже известных решённых задачах, похожих на новую, поэтому способ решения новой задачи основан на ассоциативном принципе сходства (подобия). Для его реализации используются ассоциативный поиск в памяти, ассоциативные логические рассуждения, использующие освоенные машиной приёмы решения задач в новой ситуации, и т.п. В современных компьютерах и интеллектуальных роботах существует ассоциативная память . Ассоциативные модели используются в задачах классификации, распознавания образов, обучения , ставших уже ординарными задачами информационных систем и технологий. Однако теория ассоциативных моделей до 90-х гг. XX в. отсутствовала и сейчас только создаётся.

Перечислим вкратце основных творцов искусственного интеллекта.

Н. Винер (математик), У.Р. Эшби (биолог) - основоположники кибернетики, впервые заявившие, что машины могут быть умнее людей, давшие первоначальный толчок развитию теории искусственного интеллекта.

У. Маккаллок, У. Питс (физиологи) - в 1943г. предложили формальную модель нейрона; основоположники нейрокибернетики и первоначальной концепции нейронной сети.

А. Тьюринг (математик) - в 1937 г. изобрёл универсальную алгоритмическую "машину Тьюринга"; предложил интеллектуальный "тест Тьюринга", позволяющий определить, разумна ли машина в сравнительном диалоге с ней и "разумным человеком".

Дж. фон Нейман (математик) - один из основоположников теории игр и теории самовоспроизводящихся автоматов, архитектуры первых поколений компьютеров.

М. Сомальвико (кибернетик), А. Азимов (биохимик, писатель) - основоположники интеллектуальной робототехники.

Г. Саймон, У. Рейтман (психологи) - авторы и разработчики первых лабиринтных интеллектуальных моделей, построенных на принципах эвристического программирования.

Р. Беллман (математик), С.Ю. Маслов (логик) - авторы динамического подхода к лабиринтным интеллектуальным моделям (динамического программирования, обратного метода доказательств).

Ф. Розенблатт (физиолог), М.М. Бонгард (физик) - первооткрыватели проблемы распознавания образов; разработчики устройств и моделей распознавания и классификации.

Л. Заде, А.Н. Колмогоров, А.Н. Тихонов, М.А. Гиршик (математики) - авторы математических методов решения плохо формализованных задач и принятия решений в условиях неопределённости.

Н. Хомски (математик, филолог) - основоположник математической лингвистики.

Л.Р. Лурия (психолог) - основоположник нейропсихологии, изучающей глубинные механизмы познавательной деятельности мозга и других интеллектуальных функций мозга.

К.Э. Шеннон (инженер-связист), Р.Х. Зарипов (математик) - авторы теории и моделей машинного синтеза музыки.

Приведённый перечень далеко не полон. В области искусственного интеллекта работали и работают не только отдельные специалисты, но и коллективы, лаборатории, институты. Основные проблемы, решаемые ими:

  1. представление знаний;
  2. моделирование рассуждений;
  3. интеллектуальный интерфейс "человек-машина", "машина-машина";
  4. планирование целесообразной деятельности;
  5. обучение и самообучение интеллектуальных систем;
  6. машинное творчество;
  7. интеллектуальные роботы.

История искусственного интеллекта как нового научного направления начинается в середине XX века. К этому времени уже было сформировано множество предпосылок его зарождения: среди философов давно шли споры о природе человека и процессе познания мира, нейрофизиологи и психологи разработали ряд теорий относительно работы человеческого мозга и мышления, экономисты и математики задавались вопросами оптимальных расчетов и представления знаний о мире в формализованном виде; наконец, зародился фундамент математической теории вычислений -- теории алгоритмов -- и были созданы первые компьютеры. С самого момента своего рождения ИИ развивается как междисциплинарное направление, взаимодействующее с информатикой и кибернетикой, когнитивными науками, логикой и математикой, лингвистикой и психологией, биологией и медициной. Идея создания искусственного подобия человеческого разума для решения сложных задач и моделирования мыслительной способности витала в воздухе с древнейших времен. В древнем Египте была создана «оживающая» механическая статуя бога Амона. У Гомера в «Илиаде» бог Гефест ковал человекоподобные существа-автоматы. В литературе эта идея обыгрывалась многократно: от Галатеи Пигмалиона до Буратино папы Карло. Однако родоначальником искусственного интеллекта считается средневековый испанский философ, математик и поэт Р. Луллий (ок. 1235-ок. 1315), который в XIV веке пытался создать машину для решения различных задач на основе всеобщей классификации понятий. В XVIII в. Г. Лейбниц (1646-1716) и Р. Декарт (1596-1650) независимо друг от друга развили эту идею, предложив универсальные языки классификации всех наук. Эти идеи легли в основу теоретических разработок в области создания искусственного интеллекта. Развитие искусственного интеллекта как научного направления стало возможным только после создания ЭВМ. Это произошло в 40-х гг. XX веке. В это же время Н. Винер (1894-1964) создал свои основополагающие работы по новой науке -- кибернетике.

Термин искусственный интеллект (artificial intelligence) предложен в 1956 г. на семинаре с аналогичным названием в Станфордском университете (США). Семинар был посвящен разработке логических, а не вычислительных задач. Вскоре после признания искусственного интеллекта самостоятельной отраслью науки произошло разделение на два основных направления: нейрокибернетику и кибернетику «черного ящика». И только в настоящее время стали заметны тенденции к объединению этих частей вновь в единое целое. В СССР в 1954 г. в МГУ под руководством профессора А.А. Ляпунова (1911-1973) начал свою работу семинар «Автоматы и мышление». В этом семинаре принимали участие крупнейшие физиологи, лингвисты, психологи, математики. Принято считать, что именно в это время родился искусственный интеллект в России. Как и за рубежом, выделились направления нейрокибернетики и кибернетики «черного ящика».

В 1956-1963 гг. велись интенсивные поиски моделей и алгоритма человеческого мышления и разработка первых программ. Оказалось, что ни одна из существующих наук - философия, психология, лингвистика - не может предложить такого алгоритма. Тогда кибернетики предложили создать собственные модели. Были созданы и опробованы различные подходы.

Первые исследования в области ИИ связаны с созданием программы для игры в шахматы, так как считалось, что способность играть в шахматы является показателем высокого интеллекта. В 1954 году американский ученый Ньюэлл задумал создать такую программу. Шеннон предложил, а Тьюринг уточнил метод создания такой программы. Американцы Шоу и Саймон в содружестве с группой голландских психологов из Амстердама под руководством де Гроота создали такую программу. Попутно был создан специальный язык ИПЛ (1956), предназначенный для манипулирования информацией в символьной форме, который явился предшественником языка Лисп (MacCarthy, 1960). Однако первой программой искусственного интеллекта была программа Логик-теоретик, предназначенная для доказательства теорем в исчислении высказываний (9 августа 1956). Программа для игры в шахматы была создана в 1957 году (NSS - Newell, Shaw, Simon). Ее структура и структура программы Логик-теоретик легли в основу создания программы Универсального Решателя Задач (GPS-General Problem Solving). Эта программа, анализируя различия между ситуациями и конструируя цели, хорошо решает головоломки типа «Ханойская башня» или вычисляет неопределенные интегралы. Программа EPAM (Elementary Perceiving and Memorizing Program) - элементарная программа для восприятия и запоминания, задумана Фейгенбаумом. Начало 60-х гг. - эпоха эвристического программирования. Эвристика - правило, теоретически не обоснованное, но позволяющее сократить количество переборов в пространстве поиска. Эвристическое программирование - разработка стратегии действий на основе известных, заранее заданных эвристик. В 60-х годах создаются первые программы, работающие с запросами на естественном языке. Программа БЕЙСБОЛ (Green и др.,1961) отвечала на запросы о результатах прошедших бейсбольных матчей, программе STUDENT (Bobrow,1964) было доступно решение алгебраических задач, сформулированных на английском языке. В 1971 г. Терри Виноград разработал систему SHRDLU, которая моделирует робота, манипулирующего кубиками. С роботом можно говорить по-английски. Система интересуется не только синтаксисом фраз, но и правильно понимает их смысл благодаря семантическим и прагматическим знаниям о своем «мире кубиков». Начиная с середины 80-х гг., за рубежом происходит коммерциализация искусственного интеллекта. Растут ежегодные капиталовложения, создаются промышленные экспертные системы. Растет интерес к самообучающимся системам. В настоящее время ИИ - это бурно развивающаяся и сильно разветвленная научная область. На данный момент в истории развития искусственного интеллекта происходят крупные открытия и разработки, связные с инновациями в сопредельных областях науки, кибернетики и робототехники. Сейчас человечество как никогда близко подошло к создание искусственного интеллекта.

Данное направление образовалось на базе утверждения что интеллект человека может быть детально описан и впоследствии успешно имитироваться машиной. Гёте Фауст Идея о том что не человек мог бы выполнять за человека трудную работу возникла ещё в каменном веке когда человек одомашнил собаку. Что в этом создании было самое ценное это то что мы сейчас называем искусственным интеллектом. Для него легализуется идея усиленной борьбы со злом переступающая границы религиозного закона...


Поделитесь работой в социальных сетях

Если эта работа Вам не подошла внизу страницы есть список похожих работ. Так же Вы можете воспользоваться кнопкой поиск


ОБЪЕДИНЕННЫЙ ИНСТИТУТ ЯДЕРНЫХ ИССЛЕДОВАНИЙ

УЧЕБНО-НАУЧНЫЙ ЦЕНТР

РЕФЕРАТ

по истории и философии науки

на тему:

ИСТОРИЯ РАЗВИТИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Выполнил:

Пелеванюк И.С.

Дубна

2014

Введение 3

До возникновения науки 4

Самые первые идеи 4

Три закона робототехники 5

Первые научные шаги 7

Тест Тьюринга 7

Дармутский семинар 8

1956-1960: время больших надежд 9

1970-е года: Системы основанные на знаниях 10

Борьба на шахматной доске 11

Использование искусственного интеллекта в коммерческих целях 15

Смена парадигмы 16

Data mining 16

Заключение 21

Список литературы 22

Введение

Термин интеллект (лат. intеllеctus) означает ум, рассудок, способность мышления и рационального познания. Обычно, под этим подразумевается способность приобретать, запоминать, применять и преобразовывать знания для решения каких-то задач. Благодаря этим качествам человеческий мозг способен решать разнообразные задачи. В том числе те, для которых нет заранее известных методов решения.

Термин искусственный интеллект возник сравнительно недавно, однако уже сейчас практически невозможно представить себе мир без него. Чаще всего, люди не замечают его присутствия, но если бы, вдруг, его не стало, то это коренным образом отразилось бы на нашей жизни. Сферы, в которых используются технологии искусственного интеллекта, постоянно пополняются: когда-то это были программы для игры в шахматы, потом - роботы пылесосы, сейчас алгоритмы способны сами проводить торги на биржах.

Данное направление образовалось на базе утверждения, что интеллект человека может быть детально описан и, впоследствии, успешно имитироваться машиной. Искусственный интеллект являлся причиной огромного оптимизма, однако вскоре показал ошеломляющую сложность реализации.

Основные направления развития искусственного интеллекта включают рассуждения, знания, планирование, обучение, языковую коммуникацию, восприятие и способность двигаться и манипулировать объектами. Универсальный искусственный интеллект(или "сильный ИИ ") всё ещё в планах на будущее. В настоящее время популярные подходы включают статистические методы, вычислительного интеллекта и традиционной символической ИИ. Существует огромное количество инструментов, использующих искусственный интеллект: разные версии поисковых алгоритмов, алгоритмы математической оптимизации, логики, методы, основанные на вероятности и многие другие.

В данном реферате я попытался собрать наиболее важные, с моей точки зрения, события, оказавшие влияние на развитие технологии и теории искусственного интеллекта, основные достижения и предпосылки.

До возникновения науки

Самые первые идеи

“Нам говорят «безумец» и «фантаст»,

Но, выйдя из зависимости грустной,

С годами мозг мыслителя искусный

Мыслителя искусственно создаст.”

Гёте, “Фауст”

Идея о том, что не человек мог бы выполнять за человека трудную работу, возникла ещё в каменном веке, когда человек одомашнил собаку. Собака идеально подходила на роль сторожа и выполняла эту задачу на много лучше чем человек. Конечно, этот пример нельзя рассматривать как демонстрацию использования искусственного интеллекта, ведь собака - это живое существо: она уже наделена возможностью распознавания образов, ориентирования в пространстве, а так же предрасположена к некоторому базовому обучению в целях распознавания “свой/чужой”. Тем не менее, это показывает направление мысли человека.

Другим примером является миф о Талосе. Талос, по преданию, был огромным бронзовым витязем, которого Зевс даровал Европе для защиты острова Крит. Его задачей было не допускать чужаков на остров. Если они приближались, Талос закидывал их камнями, если им удавалось высадиться, Талос раскалял себя в огне и сжигал врагов в своих объятиях.

Чем же Талос так примечателен? Созданный из самого прочного на тот момент материала, способный определять кто чужак, практически неуязвимый, без необходимости отдыхать. Так представлялись древним грекам создания богов. Что в этом создании было самое ценное - это то, что мы сейчас называем искусственным интеллектом.

Другой интересный пример можно взять из иудейских преданий - это легенды о големах. Голем — глиняное существо человеческого вида. Их, по легенде, могли создавать раввины для защиты еврейского народа. В Праге возникла еврейская народная легенда о големе, который был создан главным раввином Праги для исполнения разных «чёрных» работ или просто трудных поручений. Известны и другие големы, созданные по народному преданию разными авторитетными раввинами — новаторами религиозной мысли.

В этой легенде народная фантазия оправдывает сопротивление социальному злу насилием, совершённым големом. Для него легализуется идея усиленной борьбы со злом, переступающая границы религиозного закона; недаром голем по легендам может превысить свои полномочия, заявляя свою волю, противоречащую воле его создателя: голем способен делать то, что по закону преступно для человека.

И в заключение, роман “Франкенштейн или современный Прометей”, написанный Мэри Шэлли. Его можно назвать родоначальником научно-фантастической литературы. В нём описывается жизнь и труды доктора Виктора Франкенштейна, который оживил существо, созданное из частей тел умерших людей. Однако, увидев, что оно оказалось безобразным и чудовищным, доктор отрекается от своего создания и покидает город, в котором жил. Безымянное существо, которое люди ненавидят за внешний вид, вскоре начинает преследовать своего создателя.

И здесь опять же поднимается вопрос об ответственности, которую человек несёт за своих созданий. В начале XIX века, роман поднял несколько вопросов касательно пары творца и творения. Насколько это было этически правильно, создавать подобное творение? Кто несет ответственность за его поступки? Вопросы, тесно связанные с идеями об искусственном интеллекте.

Подобных примеров, которые неким образом связанны с вопросами создания искусственного интеллекта, много. Это кажется людям святым граалем, способным решить многие их проблемы и освободить от любых проявлений недостатка и неравенства.

Три закона робототехники

Начиная с Франкенштейна, искусственный интеллект появляется в литературе постоянно. Идея о нём стала плодотворной почвой для размышлений писателей и философов. Один из них, Айзек Азимов, навсегда запомнится нам. В 1942 году, в своём романе “Хоровод”, он описал три закона, которым должны следовать роботы:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

До Айзека, в рассказах о искусственном интеллекте и о роботах, сохранялся дух романа Мэри Шэлли о Франкенштейне. Как говорил сам Айзек, эта проблема стала одной из самых популярных в мире научной фантастики в 1920—1930-х годах, когда писалось множество рассказов, темой которых являлись роботы, которые восставали и уничтожали людей.

Но не все фантасты, конечно, следовали такому шаблону. В 1938 году, к примеру, Лестера дель Рея написал рассказ «Хелен О’Лой» — рассказ о женщине-роботе, полюбившей своего создателя и ставшей для него, в последствии, идеальной женой. Что, кстати, очень сильно напоминает историю о Пигмалионе. Пигмалион вырезал из слоновой кости статую девушки настолько красивой, что сам влюбился в неё. Тронутая такой любовью Афродита оживила статую, которая стала женой Пигмалиона.

По сути, возникновение Трёх Законов происходило постепенно. В двух самых первых рассказах о роботах: «Робби» (1940) и «Логика» (1941) не было явного описания законов. Но в них уже подразумевалось, что у роботов должны быть некоторые внутренние ограничения. В следующем рассказе: «Лжец» (1941) впервые прозвучал Первый Закон. А полностью все три закона появились только в «Хороводе» (1942).

Не смотря на то, что сегодня роботика развивается как никогда, исследователи из области искусственного интеллекта не придают такого большого значения законам робототехники. Ведь законы, по сути, совпадают с основными принципами человечности. Однако, чем сложнее становятся роботы, тем очевиднее необходимость в создании некоторых базовых принципов и мер безопасности для них.

Есть даже утверждения, что Законы вряд ли будут полностью реализованы во всех роботах, ведь всегда найдутся те, кто захочет использовать роботов в целях разрушения и убийства. Специалист по научной фантастике Роберт Сойер собрал эти утверждения в одно:

“Развитие ИИ — это бизнес, а бизнес, как известно, не заинтересован в развитии коренных мер безопасности — особенно философских. Вот несколько примеров: табачная индустрия, автомобильная промышленность, ядерная промышленность. Ни для одной из них изначально не было сказано, что серьёзные меры безопасности необходимы, и все они препятствовали внешне налагаемым ограничениям, и ни одна из них не приняла абсолютный эдикт против причинения вреда людям.”

Первые научные шаги

Историю развития искусственного интеллекта как науки можно начать прослеживать с ранних философских работ, таких как: "Рассуждение о методе" (Рене Декарт, 1637), "Человеческая природа" (Томаса Гоббс, 1640). Если смотреть на развитие ещё и с технической точки зрения, то можно упомянуть про первую механическую цифровую вычислительную машину, которая появилась ещё раньше: в 1623 , благодаря стараниям Вильгельма Шикарда. Однако, мне бы хотелось обратить внимание на 1950, когда Алан Тьюринг в своей статье “Вычислительные машины и разум” задался целью определить, способна ли машина мыслить.

Тест Тьюринга

Человек общается с другим человеком и с компьютерной программой. Человек может задавать вопросы посредством терминала, его задача определить, где программа и где человек. Цель программы - ввести человека в заблуждение и заставить сделать неправильный выбор. По условиям, переписка должна была производиться через фиксированные промежутки времени, потому что тогда ещё компьютеры были медленными и это позволяло сразу определять где программа. Сейчас это правило необходимо, потому что компьютер может ответить на много быстрее, чем человек.

На самом деле существует несколько вариантов формулировки. В одном из них, к примеру, компьютер был должен убедить комиссию из нескольких человек, что они общаются с другим человеком. А в одном из самых первых вариантов, Тьюринг предлагает участнику эксперимента сыграть в шахматы с человеком и с компьютером, а потом определить, кто из них кто. На самом деле, к моменту написания статьи, Алан Тьюринг уже около 10 лет занимался вопросами искусственного интеллекта.

В последующей истории теста Тьринга можно выделить несколько ключевых событий. Но главное произошло в 1966 году, Джозеф Вайценбаум создал программу Элиза, которая могла пародировать разговор с психотерапевтом. Это позволяло ей в условиях неопределённости отвечать вопросом на вопрос. Вот пример того, какой разговор мог с ней получиться:

Х: Кто ваш любимый композитор?

Elisa: А вас интересует эта тема? (Отвечает вопросом на вопрос)

Х: У меня болит голова.

Elisa: Почему вы говорите, что у вас болит голова? (Условие неопределённости)

Х: Мой отец меня ненавидит

Elisa: Кто ещё из семьи вас ненавидит? (реагирует на ключевое слово “отец”)

Элиза навсегда останется важным этапом в развитии искусственного интеллекта. Это была первая программа, которая вышла за рамки парадигмы общения Человек/Машина и смогла создать имитацию общения Человек/Человек.

Дармутский семинар

Благодаря бурному скачку в скорости работы компьютеров исследователи стали полагать, что благодаря компьютеру создать искусственный интеллект не составит большого труда. Дело в том, что в то время существовало два направления исследований: нейрокибернетика и, чуть позднее, кибернетика “чёрного ящика”.

В основу нейрокибернетики лёг принцип, что единственный объект способный мыслить - это человек, значит мыслящее устройство должно моделировать его структуру. Учёные пытались создавать элементы, которые бы работали как нейроны головного мозга. Благодаря этому, в конце 50-х годов, появились первые нейронные сети. Их создали двое американских учёных: Розен-блатт и П.Мак-Каллок. Они попытались создать систему, которая могла бы моделировать работу человеческого глаза. Своё устройство они назвали перцептрон. Оно могло распознавать рукописные буквы. Сейчас, основной областью применения нейросетей является распознавание образов.

В основу кибернетики “чёрного ящика” лёг принцип, который говорил, что неважно, как устроена внутри мыслящая машина, главное чтобы она реагировала на некий набор входных данных так же, как человек. Исследователи, работающие в этой области стали создавать собственные модели. Оказалась, что ни одна из существующих наук: психология, философия, нейрофизиология, лингвистика, не смогли пролить свет на алгоритм работы мозга.

Развитие кибернетики “чёрного ящика” началось с 1956 года, когда прошёл Дармутский семинар, одним из основных организаторов которого являлся Джон Маккарти. К тому времени стало ясно, что для реализации принципов нейрокибернетики не хватает, как теоретических знаний, так и технической базы. Но исследователи в области информатики верили, что благодаря совместным усилиям удастся развить новый подход к созданию искусственного интеллекта. Усилиями одних из самых выдающихся учёных из области информатики был организован семинар под названием: Дармутский летний проект исследования искусственного интеллекта. В нём приняли участие 10 человек, многие из-которых были, в будущем, награждены премией Тьюринга - самой почётной премией в области информатики. Далее приведено вступительное утверждение:

Мы предлагаем исследование искусственного интеллекта сроком в 2 месяца с участием 10 человек летом 1956 года в Дартмутском колледже, Гановер, Нью–Гемпшир.

Исследование основано на предположении, что всякий аспект обучения или любое другое свойство интеллекта может в принципе быть столь точно описано, что машина сможет его симулировать. Мы попытаемся понять, как обучить машины использовать естественные языки, формировать абстракции и концепции, решать задачи, сейчас подвластные только людям, и улучшать самих себя.

Мы считаем, что существенное продвижение в одной или более из этих проблем вполне возможно, если специально подобранная группа учёных будет работать над этим в течение лета. ”

Это была, пожалуй, самая амбициозная грантозаявка в истории. Именно на этой конференции официально утвердилась новая область науки - “Искусственный интеллект”. И может быть, ничего конкретного не было открыто или разработано, но благодаря этому мероприятию одни из самых выдающихся исследователей познакомились друг с другом и начали двигаться в одном направлении.

1956-1960: время больших надежд

В те времена, казалось, что решение уже очень близко и не смотря на все трудности, человечество вскоре сможет создать полноценный искусственный интеллект, способный приносить реальную пользу. Появлялись программы способные создавать что-то интеллектуальное. Классическим примером является программа Logic theorist.

В 1913 году Уайтхед и Бертран Рассел опубликовали свой труд “Принципы математики”. Их целью было показать, что при помощи минимального набора логических средств, таких как аксиомы и правила вывода, можно воссоздать все математические истины. Эта работа считается наиболее одной из самых влиятельных из когда либо написанных книг после Organon Аристотеля.

Программа Logic Theorist смогла сама воссоздать большую часть “Principia Mathematica”. Причём, кое-где даже изящнее, чем это получилось у авторов.

Logic Theorist ввела несколько идей, которые стали центральными в исследованиях искусственного интллекта:

1. Рассуждение, как способ поиска. Фактически, программа шла по дереву поиска. Корнем дерева были начальные утверждения. Возникновение каждой ветви базировалась на правилах логики. В самой верхушке дерева возникал результат - то, что программа смогла доказать. Путь от корневых утверждений к целевым назывался доказательством.

2. Эвристика. Авторы программы поняли, что дерево будет рости экспоненциально и им потребуется каким-то образом, “на глаз”, его обрезать. Правила, в соответствии с которыми они избавлялись от лишних ветвей они назвали “эвристическими”, используя термин введённый Дьёрдь По́йа в своей книге “Как решать задачу”. Эвристика стала важной составляющей исследований искусственного интеллекта. Она остаётся важным методом решения сложных комбинаторных задач, так называемых “комбинароных взрывов”(пример: задача коммивояжера, перебор шахматных ходов).

3. Обработка структуры “Список”. Чтобы реализовать программу на компьютере был создан язык программирования IPL(Information Processing Language), который использовал такую же форму списков, которую в будущем использовал Джон Маккарти при создании языка Лисп(за него он получил премию Тьюринга), который до сих пор используется исследователями искусственного интеллекта.

1970-е года: Системы основанные на знаниях

Системы основанные на знаниях - это компьютерные программы, которые используют базы знаний, чтобы решать сложные задачи. Сами системы подразделяются ещё на несколько классов. Объединяет их то, что все они пытаются представлять знания через такие средства, как онтологии и правила, нежели чем просто программный код. Они всегда состоят, как минимум, из одной подсистемы, а чаще, из двух сразу: базы знаний и машины вывода. База знаний содержит факты о мире. Машина вывода содержит логические правила, которые, обычно, представлены в виде правил ЕСЛИ-ТО. Системы основанные на знаниях впервые были созданы исследователями искусственного интеллекта.

Первой работающей системой основанной на знаниях была программа Mycin. Это программа была создана для диагностики опасных бактерий и выбора наиболее правильного лечения для пациента. Программа оперировала 600 правил, задавала врачу множество вопросов с ответом “да/нет” и выдавала список возможных бактерий, отсортированный в зависимости от вероятности, так же предоставляла доверительный интервал и могла порекомендовать курс лечения.

В результате исследований в Стэнфорде обнаружилось, то Mycin предоставляет приемлемый курс лечения в 69% случав, что лучше чем у эспертов, которых оценивали по тем же критериям. Данное исследование часто цитируют в целях демонстрации несогласия между врачами-экспертами и системой, если не существует стандарта для “правильного” лечения.

К сожалению, Mycin не так и не была апробирована на практике. Были подняты этические и правовые вопросы, связанные с использованием подобных программ. Было не ясно, кто должен нести ответственность, если рекомендация программы оказалась неправильной. Другой проблемой стало технологическое ограничение. В те времена не было персональных компьютеров, один сеанс занимал более получаса, и это было недопустимо для занятого врача.

Основным достижением программы была то, что мир увидел мощь систем основанных на знаниях, и мощь искусственного интеллекта в целом. Позже, в 1980-х, стали появляться другие программы использующие такой же подход. Для упрощения их создания была создана оболочка E-Mycin, которая позволяла создавать новые экспертные системы с меньшими усилиями. Непредвиденной трудностью, с которой столкнулись разработчики, оказалось извлечение знаний из опыта экспертов, по вполне понятным причинам.

Важно упомянуть, что именно в это время начал советский учёный Дмитрий Александрович Поспелов начал свою работу в области искусственного интеллекта

Борьба на шахматной доске

Отдельно можно рассматривать историю противостояния человека и искусственного интеллекта на шахматной доске. Эта история началось очень давно: когда в 1769 году, в Вене, Вольфганг фон Кемпеленг создал шахматный автомат. Это был большой деревянный ящик, на крыше которого находилась шахматная доска, и за которым стоял восковой турок в соответствующем наряде (из-за этого машину, иногда, коротко называют “Турок”). Перед началом представления дверцы ящика открывались, и зрители могли видеть множество деталей некоего механизма. Затем дверцы закрывали, и заводили машину специальным ключом, как часы. После этого желающий поиграть подходил и делал ходы.

Данная машина имела огромный успех и успела объездить всю Европу, проиграв всего несколько партий сильным шахматистам. В действительности, внутри ящика сидел человек, который при помощи системы зеркал и механизмов мог наблюдать за состоянием партии и при помощи системы рычагов управлять рукой “Турка”. И это была не последняя машина, внутри которой, на самом деле, скрывался живой шахматист. Подобные машины имели успех вплоть до начала двадцатого века.

С появлением компьютеров возможность создать искусственного шахматиста стала осязаемой. Аланом Тьюрингом была разработана первая программа способная играть в шахматы, однако из-за технических ограничений на то, чтобы сделать один ход требовалось около получаса. Сохранилась даже запись игры программы с Аликом Глени, коллегой Тьюринга, которую программа проиграла.

Идея создания подобных программ на базе компьютеров вызвала резонанс в научном мире. Задавалось множество вопросов. Прекрасным примером является статья: “Применение цифровых компьютеры для игр” (Digital Computers applied to Games). В ней поднимается 6 вопросов:

1. Можно ли создать машину, которая могла бы следовать правилам шахмат, могла бы выдавать случайный корректный ход, либо проверять, является ли ход корректным?

2. Можно ли создать машину, способную решать шахматные задачи? К примеру говорить, как поставить мат за три хода.

3. Можно ли создать машину, которая вела бы хорошую игру? Которая, к примеру, столкнувшись с некой обычной расстановкой фигур могла бы после двух-трёх минут вычислений выдать хороший корректный ход.

4. Можно ли создать машину, которая играя в шахматы учится и улучшает свою игру раз за разом?

Этот вопрос поднимает ещё два, которые, скорее всего, уже вертятся на языке у читателя:

5. Можно ли создать машину, которая способна отвечать на поставленный вопрос таким образом, чтобы нельзя было отличить её ответ, от ответа человека.

6.Можно ли создать машину, которая чувствовала как вы или я?

В статье основной упор делался на вопрос номер 3. На вопросы 1 и 2 ответ строго положительный. Ответ на вопрос 3 связан с использованием более сложные алгоритмы. По поводу вопроса 4 и 5 автор говорит, что не видит убедительных аргументов опровергающих подобную возможность. А на вопрос 6: “Я никогда не узнаю даже того, чувствуете ли вы всё так же как и я”.

Пусть подобные исследования сами по себе, быть может, и не имели большого практического интереса, однако они были очень интересны теоретически, и была надежда, что решение этих задач станут толчком к решению других задач подобной природы и большего значения.

Умение играть в шахматы издавна было отнесено к стандартным тестовым задачам, демонстрирующим возможности искусственного интеллекта справляться с заданием не с позиций «грубой силы», что в данном контексте понимается как применение тотального перебора возможных ходов, а с помощью… «чего-то такого», как выразился однажды один из пионеров в области разработки шахматных программ Михаил Ботвинник. В своё время ему удалось «пробить» официальное финансирование работ над проектом «искусственного шахматного мастера» — программного комплекса «ПИОНЕР», который создавался под его руководством во Всесоюзном НИИ электроэнергетики. О возможностях применения базовых принципов «ПИОНЕРА» для решения задач оптимизации управления в народном хозяйстве Ботвинник неоднократно докладывал в президиум АН СССР.

Базовой идеей, на которой основывал свою разработку экс-чемпион мира, он сам сформулировал в одном из своих интервью 1975 года: «Уже не один десяток лет я работаю над проблемой распознавания мышления шахматного мастера: как он находит ход без полного перебора? И сейчас можно утверждать, что этот метод в основном раскрыт... Три основных этапа создания программы: машина должна уметь находить траекторию передвижения фигуры, потом она должна «научиться» формировать зону игры, зону местного боя на шахматной доске и уметь формировать совокупность этих зон. Первая часть работы выполнена давно. Сейчас закончена подпрограмма формирования зоны. В ближайшие дни начнётся её отладка. Если она пройдёт успешно, будет полная уверенность, что удастся и третий этап и машина начнёт играть».

Проект «ПИОНЕР» остался незавершённым. Ботвинник работал над ним с 1958 по 1995 год — и за это время сумел построить алгоритмическую модель шахматной игры, основанную на поиске «дерева вариантов» и последовательного достижения «неточных целей», в качестве которых выступал выигрыш материала.

В 1974 году советская компьютерная программа Каисса выиграла Первый Всемирный Компьютерный Шахматный Чемпионат, победив во всех четырёх партиях другие шахматные автоматы, играя, по словам шахматистов, на уровне третьего разряда. Советские учёные ввели множество новшеств для шахматных автоматов: использование дебютной книги, позволяющей избежать расчёта ходов в самом начале игры, а также особую структуру данных: битборд, которая до сих пор используется в шахматных автоматах.

Возник вопрос, а сможет ли программа обыграть человека. В 1968 году шахматист Дэвид Леви заключил пари на 1250 фунтов стерлингов, что в следующие 10 лет ни одна машина не сможет его обыграть. В 1977 году он провёл партию с Каиссой и выиграл, после чего, турнир продолжать не стали. В 1978 году он выиграл партию у Chess4.7 - лучшей шахматной программы на то время, после чего сознался, что осталось не так много времени до того момента, когда программы смогут побеждать титулованных шахматистов.

Следует отдельно отметить партии между человеком и компьютером. Самой первой стала упомянутая ранее партия Алика Глени и программы Тьюринга. Следующим этапом стало создание программы в Лос-Аламосе в 1952 году. Она играла на доске 6х6(без слонов). Тест был проведён в два этапа. Первый этап - игра с сильным шахматистом, в результате которого, через 10 часов игры победил человек. Вторым этапом стала игра против девушки, которую незадолго до теста научили играть в шахматы. Результатом стала победа программы на 23-м ходу, что являлось несомненным достижением на тот момент.

Лишь в 1989 году программе Deep Thought удалось выиграть у международного гроссмейстера: Бента Ларсена. В том же году состоялся матч этой же программы с Гарри Каспаровым, который был легко выигран Каспаровым. После это матча он заявил:

Если компьютер сможет превзойти в шахматах лучшего из лучших, это будет означать, что ЭВМ в состоянии сочинять самую лучшую музыку, писать самые лучшие книги. Не могу в это поверить. Если будет создан компьютер с рейтингом 2800, то есть равным моему, я сам сочту своим долгом вызвать его на матч, чтобы защитить человеческую расу.

В 1996 году компьютер Deep Blue проиграл турнир Каспарову, но впервые в истории выиграл партию у чемпиона мира. И лишь в 1997 году компьютер впервые в истории выиграл турнир у чемпиона мира со счётом 3,5:2,5.

После матчей Каспарова многие руководители FIDE неоднократно высказывали мысли о том, что проводить смешанные встречи (человек против компьютерной программы) по многим причинам нецелесообразно. Поддерживая эту позицию, Гарри Каспаров пояснял: « Да, компьютер не знает, что такое выигрыш или проигрыш. А как это для меня?.. Как я буду относиться к игре после бессонной ночи, после грубых ошибок в игре? Это всё эмоции. Они ложатся огромным бременем на человека-игрока, и самое неприятное, что вы ведь понимаете: ваш оппонент не подвержен ни усталости, ни любым другим эмоциям ».

И если уже сейчас в шахматной борьбе перевес на стороне компьютеров, то в таких состязаниях как игра го компьютер подходит только для игры с новичками либо с игроками среднего уровня. Причина в том, что в го затруднена оценка состояния доски: один ход может сделать из однозначно проигрышной позиции, выигрышную. Дополнительно к этому полный перебор практически не возможен, ибо без использования эвристического подхода полный перебор первых четырёх ходов(два с одной стороны и два с другой) может потребовать оценки почти 17 млд возможных вариантов расклада.

Подобный интерес может представлять игра в покер. В ней трудность заключается в том, что состояние не является полностью обозреваемым, в отличие от го и шахмат, где оба игрока видят всю доску. В покере возможна ситуация, когда противник говорит пас и не показывает свои карты, что может затруднить процесс анализа.

В любом случае, интеллектуальные игры важны для разработчиков искусственного интеллекта, как дрозофилы для генетиков. Это удобное поле для испытаний, поле для исследований, как теоретических, так и практических. Это так же показатель развития науки об искусственном интеллекте.

Использование искусственного интеллекта в коммерческих целях

В 80-е годы, вдохновлённые достижениями искусственного интеллекта, многие компании решили попробовать использовать новые технологии. Однако, только самые крупные компании могли позволить себе подобные экспериментальные шаги.

Одной из самых первых компаний, которые смогли адаптировать технологии искусственного интеллекта, была компания DEC(Digital Equipment Corp). Она смогла внедрить экспертную систему XSEL, которая помогала составлять конфигурацию оборудования и подбирать альтернативы для клиентов. В итоге, трёхчасовая задача сократилась до 15 минут, причём, количество ошибок сократилось с 30% до 1%. По словам представителей компании, система XSEL позволяла зарабатывать 70 миллионов долларов.

American Express использовали экспертную систему для принятия решения о том выдавать ли кредит клиенту или нет. Эта система на одну треть чаще предлагала выдавать кредит, чем это делали эксперты. Говорят, она зарабатывала 27 миллионов долларов в год.

Выигрыш, который давали интеллектуальные системы зачастую оказывался ошеломляющим. Он был подобен переходу от передвижения ходьбой, к передвижению на автомобиле, или от передвижения на автомобиле, к перелёту на самолёте.

Однако не всё было так просто с интеграцией искусственного интеллекта. Во-первых, не каждую задачу можно было формализовать до того уровня, на каком бы с ней смог справиться искусственный интеллект. Во-вторых, сама разработка была весьма дорогим удовольствием. В-третьих, системы были новы, люди не привыкли пользоваться компьютерами. Некоторые относились к ним скептически, а некоторые даже враждебно.

Интересным примером является компания DuPont, она смогла потратить 10000$ и один месяц, чтобы создать маленькую вспомогательную систему. Она могла работать на персональном компьютере и позволяла получать дополнительную прибыль в 100000$.

Не всем компаниям удалось успешно внедрить технологии искусственного интеллекта. Это показало, что использование подобных технологий требует большой теоретической базы и много ресурсов: интеллектуальных, временных и материальных. Но в случае успеха, затраты окупались с лихвой.

Смена парадигмы

В середине 80-х человечество увидело, что компьютеры и искусственный разум способны справляться с трудными задачами не хуже человека и, во многом, даже лучше. Под рукой были примеры успешного коммерческого использования, достижения в игровой индустрии и достижения систем поддержки принятия решений. Люди верили, что в какой-то момент компьютеры и искусственный интеллект сможет справляться с каждодневными проблемами лучше человека. Вера, которая прослеживалась с давнего времени, и, точнее, со времён создания трёх законов робототехники. Но в какой-то момент эта вера перешла на новый уровень. И в доказательство тому можно привести ещё один закон робототехники, который сам Айзек Азимов в 1986 году предпочёл назвать “нулевым”:

“0. Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества.”

Это огромный сдвиг видения места искусственного интеллекта в жизни человека. Изначально, машинам отводилось место безвольного слуги: скота нового века. Однако, увидев его перспективы и возможности, человек стал поднимать вопрос о том, не смог бы ли искусственный разум управлять жизнью людей лучше, чем сами люди. Неустанный, справедливый, бескорыстный, не подверженный зависти и желаниям, возможно он смог бы по-другому устроить жизнь людей. Идея на самом деле не новая, она появлялась в 1952 году в романе Курта Воннегута “Механическое пианино” или “Утопия 14”. Но тогда она была фантастикой. Теперь же, она превратилась в возможную перспективу.

Data mining

История такого направления к Data mining началась в 1989, после семинара Григория Пятецкого-Шапиро. Он задался вопросом можно ли из длинной последовательности, с первого взгляда, ничем не примечательных данных, извлечь полезные знания. К примеру, это мог бы быть архив запросов к базе данных. В случае, если бы посмотрев на него, мы могли бы выявить некоторые закономерности, то это позволило бы ускорить работу базы данных. Пример: каждое утро с 7:50 до 8:10 инициируется ресурсозатратный запрос на создание отчёта за прошлый день, в таком случае к этому времени его можно уже сформировать в перерывах между другими запросами, таким образом база данных будет более равномерно нагружена запросами. Но представьте, что данный запрос инициирует сотрудник только после того, как вносит новую информацию. В таком случае, правило должно измениться: как только конкретный сотрудник внёс информацию, можно начинать готовить отчёт в фоновом режиме. Данный пример крайне прост, однако он показывает как пользу датамайнинга, так и трудности, связанные с ним.

Термин датамайнинг не имеет официального перевода на русский язык. Его можно переводить как “добыча данных”, при чём “добыча” сродни той, которые ведутся в шахтах: имея много сырого материала, можно найти ценный объект. На самом деле подобный термин существовал ещё в 1960-х: Data Fishing или Data Dredging. Он был в ходу у статистиков, означая признанную плохой практику поиска закономерностей при отсутствии априорных гипотез. По сути, термин мог бы более корректно но называться Database mining, но это название оказалось торговой маркой. Сам, Григорий Пятецкий-Шапиро, предложил термин “Knowledge Discovery in Databases”, но в бизнес среде и прессе закрепилось название “Data mining”.

Идея того, что используя некую базу данных каких-то фактов, можно предсказать существование новых фактов появилась давно и постоянно развивалась в соответсвии с уровнем развитии техники: 1700-е года - теорема Байеса, 1800-е - регрессионный анализ, 1930-е - кластерный анализ, 1940-е - нейронные сети, 1950-е - генетические алгоритмы, 1960-е - деревья принятия решений. Термин Data mining объединил их не по тому принципу, как они работают, а по тому какова у них цель: имея некий набор известных данных, они могут предсказать, какие данные должны получиться дальше.

Цель датамайнинга - найти “скрытые знания”. Рассмотрим подробнее, что же значат “скрытые знания”. Во-первых, это должны быть новые знания. На пример, что на выходных количество проданного товара в супермаркете возрастает. Во-вторых, знания должны быть не тривиальными, не сводящиеся к нахождению математического ожидания и дисперсии. В-третьих, эти знания должны быть полезны. В-четвёртых, знания, которые можно доступно интерпретировать.

Долгое время люди верили, что компьютеры смогут предсказывать всё: котировки акций, нагрузки на сервера, необходимое количество ресурсов. Однако, оказалось, что зачастую извлечь информацию из свалки данных весьма сложно. В каждом конкретном случае требуется подстраивать алгоритм, если это не просто какая-то регрессия. Люди верили, что существует универсальный алгоритм, который, как чёрный ящик, способен поглотить какое-то большое количество данных и начать выдавать предсказания.

Несмотря на все ограничение, из года в год улучшаются инструменты облегчающие датамайнинг. А с 2007 года компания Rexer Analytics каждый год публикует результаты опроса специалистов о существующих инструментах. Опрос в 2007 году, состоял из 27 вопросов, в нём приняли участие 314 участников из 35 стран. В 2013 году опрос насчитывал уже 68 вопросов, и в нём приняли участи 1259 специалистов из 75 стран мира.

Датамайнинг до сих пор считается перспективным направлением. И опять же, с его использованием поднимаются новые этические вопросы. Простой пример - это использование средств датамайнинга для анализа и прогнозирования преступлений. Подобные исследования проводились с 2006 года разными университетами. Правозащитники выступают против, аргументируя это тем, что знания, полученные таким образом, могут привести к обыскам, причиной для которых служат не факты, а предположения.

Рекомендательные системы на сегодняшний день являются наиболее осязаемым результатом развития искусственного интеллекта. Мы можем столкнуться с ним зайдя на один из популярных интернет-магазинов. Задача рекомендательной системы - по некоторым наблюдаемым признакам определить, к примеру, список товаров просмотренных конкретным пользователем, определить, какие товары будут наиболее интересны для пользователя.

Задача поиска рекомендаций тоже сводится к задаче обучения машины, так же, как и с датамайнингом. Считается, что история развития рекомендательных систем началась с момента внедрения Дэвидом Голдбергом системы Tapestry в компании Xerox Palo Alto Research Center в 1992 году. Целью системы была фильтрация корпоративной почты. Это стало своего родом прародителем рекомендательной системы.

На данный момент существует два рекомендательных систем. Дэвид Голдберг предложил систему на основе коллаборативной фильтрации. То есть, для того чтобы сделать рекомендацию система просматривает информацию о том, как оценивали некий объект другие пользователи, похожие на целевого пользователя. На основе этой информации система может предположить, насколько высоко целевой пользователь оценит конкретный объект (товар, фильм).

Другим видом рекомендательных систем являются фильтры содержимого. Необходимым условием для существования фильтра содержимого является некая база данных, которая должна хранить метрики по всем объектам. Далее, после нескольких действий пользователя, система способна определить, какого типа объекты нравятся пользователю. На основе существующих метрик система может подобрать новые объекты, которые будут неким образом похожи на уже просмотренные. Недостатком подобной системы является то, что для начала необходимо построить большую базу данных с метриками. Сам процесс построения метрики может стать проблемой.

Опять же возникает вопрос, не является ли использование подобных систем нарушением. Здесь есть два подхода. Первый - явный сбор данных представляет сбор данных исключительно в рамках, в которых работает рекомендательная система. К примеру, если это рекомендательная система для интернет-магазина, то она будет предлагать оценить какой-то товар, отсортировать товары в порядке интереса, создать список любимых товаров. С этим типом всё просто: система не получает сведений об активности пользователя вне её границ, всё что ей известно - ей сообщил сам пользователь. Второй тип - это неявный сбор данных. К нему относятся такие приёмы как использование информации с других, похожих ресурсов, ведение записи о поведении пользователя, проверка содержимого компьютера пользователя. Этот тип сбора информации для рекомендательных систем вызывает опасения.

Однако, в данном направлении использование частной информации вызывает всё меньше споров. К примеру, в 2013 году на конференции YAC(Yandex Another Conference) было анонсировано создание системы Атом. Её цель, предоставить владельцам сайтов информацию, которая может потребоваться для создания рекомендаций. Эта информация, изначально, должна собираться Yandex сервисами. То есть, в данном случае осуществляется неявный сбор данных. Пример: человек заходит в поисковый сервис чтобы узнать наиболее интересные места в Париже. Спустя какое-то время, человек заходит на сайт туристического агентства. Без использования Атома агентству пришлось бы просто показать человеку наиболее популярные туры. Атом мог бы посоветовать сайту в первую очередь показать пользователю тур в Париж и сделать персональную скидку именно на этот тур, чтобы выделить его из других. Таким образом, конфиденциальная информация не выходит за рамки сервиса Атом, сайт знает, что посоветовать клиенту, а клиент счастлив тому, что быстро нашёл то, что искал.

На сегодняшний день, рекомендательные системы являются ярчайшим примером того, чего могут добиться технологии искусственного интеллекта. Благодаря одной такой системе может выполняться работа, с которой не смогла бы справиться и целая армия аналитиков.

Заключение

Всему есть начало, как говорил Санчо Панса, и это начало должно опи-

раться на нечто, ему предшествующее. Индусы придумали слона, кото-

рый удерживал мир, но им пришлось поставить его на черепаху. Нужно

отметить, что изобретение состоит в сотворении не из пустоты, но из

хаоса: в первую очередь следует позаботиться о материале...

— Мэри Шелли (Mary Shelley), Франкенштейн

Развитие искусственного интеллекта как науки и технологии создания машин началось чуть более чем века назад. И те достижения, которых удалось достичь на текущий момент - ошеломительные. Они окружают человека практически везде. У технологий искусственного интеллекта есть особенность: человек считает их чем-то интеллектуальным только первое время, затем он привыкает и они кажутся ему естественными.

Важно помнить, что наука об искусственном интеллекте находится в тесной связи с математикой, комбинаторикой, статистикой и другими науками. Но не только они оказывают на него влияние, но и развитие искусственного интеллекта позволяет по-другому взглянуть на то, что уже было создано, как это было с программой Logic Theorist.

Важную роль в развитии технологий искусственного интеллекта играет развитие компьютеров. Едва ли можно представить серьёзную программу интеллектуального анализа данных, которой бы хватило 100 килобайт оперативной памяти. Компьютеры позволяли технологиям развиваться экстенсивно, в то время как теоретические исследования служили предпосылками для интенсивного развития. Можно сказать, что развитие науки об искусственном интеллекте являлось следствием развития компьютеров.

История развития искусственного интеллекта не закончена, она пишется прямо сейчас. Постоянно совершенствуются технологии, создаются новые алгоритмы, открываются новые области применения. Время постоянно открывает перед исследователями новые возможности и новые вопросы.

В данном реферате не делается акцента на страны, в которых проводились те или иные исследования. Весь мир внёс по частичке в ту область, которую мы сейчас зовём наукой об искусственном интеллекте.

Список литературы

Мифы народов мира. М., 1991-92. В 2 т. Т.2. С. 491,

Idel, Moshe (1990). Golem: Jewish Magical and Mystical Traditions on the Artificial Anthropoid. Albany, New York: State University of New York Press. ISBN 0-7914-0160-X . page 296

Азимов, Айзек. Эссе № 6. Законы роботехники // Мечты робото в . — М.: Эксмо, 2004. — С. 781—784. — ISBN 5-699-00842- X

См. Нонн. Деяния Диониса XXXII 212. Климент. Протрептик 57, 3 (ссылка на Филостефана).

Robert J. Sawyer. On Asimov’s Three Laws of Robotics (1991).

Turing, Alan (October 1950), "Computing Machinery and Intelligence" , Mind LIX (236): 433–460

McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955), A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence

Crevier 1993 , pp. 46–48.

Smith, Reid (May 8, 1985). "Knowledge-Based Systems Concepts, Techniques, Examples"

Alan Turing, "Digital computers applied to games". n.d. AMT"s contribution to "Faster than thought", ed. B. V. Bowden, London 1953. Published by Pitman Publishing. TS with MS corrections. R.S. 1953b

Каисса - Чемпион Мира. Журнал "Наука и Жизнь", январь 1975, стр.118-124

Гик, Е. Гроссмейстер «Глубокая мысль» // Наука и жизнь. — М., 1990. — В. 5. — С. 129—130.

F. Hayes-Roth, N. Jacobstein. The State of Enowledge-Based Systems. Communications of the АСМ, March, 1994, v.37, n.3, рр.27-39.

Karl Rexer, Paul Gearan, & Heather Allen (2007); 2007 Data Miner Survey Summary, presented at SPSS Directions Conference, Oct. 2007, and Oracle BIWA Summit, Oct. 2007.

Karl Rexer, Heather Allen, & Paul Gearan (2013); 2013 Data Miner Survey Summary, presented at Predictive Analytics World, Oct. 2013.

Shyam Varan Nath (2006). “Crime Pattern Detection Using Data Mining”, WI-IATW "06 Proceedings of the 2006 IEEE/WIC/ACM international conference on Web Intelligence and Intelligent Agent Technology, page 41-44

David Goldberg, David Nichols, Brian M. Oki and Douglas Terry(2006). “Using collaborative filtering to weave an information Tapestry”, Communications of the ACM, Dec 1992, vol.35, n12, p.61-71

Другие похожие работы, которые могут вас заинтересовать.вшм>

14280. Представление о системах искусственного интеллекта и механизмах их функционирования 157.75 KB
Рассмотрение структуры и механизмов функционирования интнллектуальных систем, с одной стороны, предполагает детализацию изложения, учет влияния конкретных особенностей приложений, а с другой стороны, требует обобщение и классификацию вводимых понятий, структур, механизмов.
609. 12.42 KB
В осветительных установках предназначенных для освещения предприятий в качестве источников света широко используются газоразрядные лампы и лампы накаливания. К основным характеристикам источников света относятся: номинальное напряжение В; электрическая мощность Вт; световой поток ям: световая отдача лм Вт данный параметр является главной характеристикой экономичности источника света; срок службы ч. Тип источника света на предприятиях выбирают учитывая техникоэкономические показатели специфику производственных...
6244. История развития КИС 154.8 KB
Следует отметить что система любого типа включает в себя системы более ранних типов. Это значит что системы всех типов мирно сосуществуют и ныне. Общая модель системной архитектуры КИС До недавнего времени в технологии создания информационных систем доминировал традиционный подход когда вся архитектура информационной системы строилась сверхувниз от прикладной функциональности к системнотехническим решениям и первая составляющая информационной системы целиком выводилась из второй. Первоначально системы такого уровня базировались...
17626. История развития плавания 85.93 KB
Огромное значение воды в жизни первобытного человека, необходимость производственного освоения этой непривычной среды потребовали от него умения плавать, чтобы не погибнуть в суровой борьбе за существование. С возникновением государственного строя умение плавать стало особенно необходимым в труде и в военном деле.
9769. История развития этнопсихологии 19.47 KB
История развития этнопсихологии Заключение. Так Гиппократ в труде О воздухах водах местностях писал что все различия между народами в том числе по психологии обусловлены местонахождением страны климатом и другими природными факторами. Следующий этап глубокого интереса к этнической психологии начинается с середины XVIII в. Монтескье пожалуй наиболее полно выразил общеметодологический подход того периода к сущности этнических различий по духу психологии.
9175. История развития естествознания 21.45 KB
Среди естественнонаучных революций можно выделить следующие типы: глобальные охватывающие все естествознание и вызывающие появление не только принципиально новых представлений о мире нового видения мира но и нового логического строя науки нового способа или стиля мышления; локальные – в отдельных фундаментальных науках т. Становление новой...
9206. История развития мехатроники 7.71 KB
В последнее десятилетие очень большое внимание уделяется созданию мехатронных модулей для современных автомобилей нового поколения технологического оборудования станков с параллельной кинематикой роботов с интеллектуальным управлением микромашин новейшей компьютерной и офисной техники. Первые серьезные результаты по созданию и практическому применению роботов в СССР относятся к 1960м гг. Первые промышленные образцы современных промышленных роботов с позиционным управлением были созданы в 1971 г. в Ленинградском политехническом институте...
11578. История развития информационных технологий 41.42 KB
Итоги научных и прикладных изысканий в области информатики вычислительной техники и связи сотворили крепкую базу для происхождения новой ветви умения и производства информационной индустрии. составляет инфраструктуру и информационное пространство для осуществления информатизации социума. Этапы возникновения и развития информационной технологии В самом начале ситуации для синхронизации выполняемых влияние человеку потребовались кодированные сигналы общения. Представление информаций думает самообладание Двух объектов: источника информаций и...
3654. История развития неорганической химии 29.13 KB
Химия, как наука зародилась в Древнем Египте и использовалась в основном как прикладная наука: для получения каких-либо веществ и изделий, с новыми, еще неизвестными широкому кругу людей свойствами. Жрецы Древнего Египта использовали знания по химии для получения искусственных драгоценностей, бальзамирования людей
14758. История развития генетики как фундаментальной науки 942.85 KB
История развития генетики как фундаментальной науки. Методы исследования генетики человека. История развития генетики как фундаментальной науки.2 Основные этапы развития генетики: классический период.

ЧТО ТАКОЕ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. 3

1. ИСТОРИЯ РАЗВИТИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА.. 4

1.1. История развития искусственного интеллекта за рубежом.. 4

1.1.1. Ключевые этапы развития ИИ и становление ЭС.. 9

1.2. История развития искусственного интеллекта в России. 9

1.3. Основные направления исследований в ИИ.. 10

1.4. Перспективные направления искусственного интеллекта. 20

1.5. Различные подходы к построению современных интеллектуальных. 21

2. СТРУКТУРА ИНТЕЛЛЕКТУАЛЬНОЙ СИСТЕМЫ... 25

3. ДАННЫЕ И ЗНАНИЯ.. 27

3.1. Формы представления знаний: императивные, декларативные, комбинированные формы представления знаний. 31

3.2. Модели представления знаний. 32

3.2.1. Формальные логические модели. 32

3.2.2. Продукционная модель. 36

3.2.3.Семантические сети. 45

3.2.4.Фреймы.. 53

4. Представление и обработка нечетких знаний. 74

4.1. Подход на основе условных вероятностей (теоремы Байеса) 76

4.2. Подход с использованием коэффициентов уверенности. 81

4.3. Нечеткая логика Заде. 86

5. Методы поиска решений в сложных пространствах. 89

5.1. Методы поиска в одном пространстве. 90

5.2. Способы формализации задач. Представление задач в пространстве состояний. 93

5.3. Алгоритмы поиска решения (в пространстве состояний) 96

5.4. Эвристический (упорядоченный) поиск. 101

Библиографический список. 104

ЧТО ТАКОЕ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

Наука под названием «искусственный интеллект» входит в комплекс компьютерных наук , а создаваемые на ее основе технологии относятся к информационным технологиям .

Искусственный интеллект - это одно из направлений информатики, цель которого разработка аппаратно-программных средств, позволяющих пользователю-непрограммисту ставить и решать свои задачи, традиционно считающиеся интеллектуальными, общаясь с ЭВМ на ограниченном подмножестве естественного языка.

Задачей этой науки является обеспечение разумных рассуждений и действий с помощью вычислительных систем и иных искусственных устройств.

На этом пути возникают следующие главные трудности:

а) в большинстве случаев до получения результата не известен алгоритм решения задачи. Например, точно неизвестно, как происходит понимание текста, поиск доказательства теоремы, построение плана действий, узнавание изображения.

б) искусственные устройства (например, компьютеры) не обладают достаточным уровнем начальной компетентности. Специалист же добивается результата, используя свою компетентность (в частности, знания и опыт).

Это означает, что искусственный интеллект представляет собой экспериментальную науку . Экспериментальность искусственного интеллекта состоит в том, что создавая те или иные компьютерные представления и модели, исследователь сравнивает их поведение между собой и с примерами решения тех же задач специалистом, модифицирует их на основе этого сравнения, пытаясь добиться лучшего соответствия результатов.

Чтобы модификация программ «монотонным» образом улучшала результаты, надо иметь разумные исходные представления и модели. Их доставляют психологические исследования сознания, в частности, когнитивная психология.

Важная характеристика методов искусственного интеллекта – он имеет дело только с теми механизмами компетентности, которые носят вербальный характер (допускают символьное представление). Далеко не все механизмы, которые использует для решения задач человек, таковы.

ИСТОРИЯ РАЗВИТИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

История развития искусственного интеллекта за рубежом

Идея создания искусственного подобия человеческого разума для решения сложных задач моделирования мыслительной способности витала в воздухе с древнейших времен. Впервые ее выразил Р.Лулли й (ок.1235- ок.1315), который еще в XIV в. пытался создать машину для решения различных задач на основе всеобщей классификации понятий.

В XVIII в. Г.Лейбниц (1646 - 1716) и Р.Декарт (1596- 1650) независимо друг от друга развили эту идею, предложив универсальные языки классификации всех наук. Эти идеи легли в основу теоретических разработок в области создания искусственного интеллекта.

Развитие искусственного интеллекта как научного направления стало возможным только после создания ЭВМ. Это произошло в 40-х гг. XX в. В это же время И.Винер (1894- 1964) создал свои основополагающие работы по новой науке - кибернетике.

Термин искусственный интеллект (artificial intelligence) предложен в 1956 г. на семинаре с аналогичным названием в Станфордском университете (США). Семинар был посвящен разработке логических, а не вычислительных задач. Вскоре после признания искусственного интеллекта самостоятельной отраслью науки произошло разделение на два основных направления: нейрокибернетику и кибернетику"черного ящика " (или бионическое и прагматическое направления). И только в настоящее время стали заметны тенденции к объединению этих частей вновь в единое целое.

Основную идею нейрокибернетики можно сформулировать следующим образом. Единственный объект, способный мыслить, - это человеческий мозг. Поэтому любое "мыслящее" устройство должно каким-то образом воспроизводить его структуру.

Таким образом, нейрокибериетика ориентирована на аппаратное моделирование структур, подобных структуре мозга. Физиологами давно установлено, что основой человеческого мозга является большое количество связанных между собой и взаимодействующих нервных клеток - нейронов. Поэтому усилия нейрокибернетики были сосредоточены на создании элементов, аналогичных нейронам, и их объединении в функционирующие системы. Эти системы принято называть нейронными сетями , или нейросетями.

Первые нейросети были созданы в конце 50-х гг. американскими учеными Г.Розенблаттом и П.Мак-Кигюком. Это были попытки создать системы, моделирующие человеческий глаз и его взаимодействие с мозгом. Устройство, созданное ими, получило название перцептрона . Оно умело различать буквы алфавита, но было чувствительно к их написанию, например, буквы А, А и А для этого устройства были тремя разными знаками. Постепенно в 70-80 гг. количество работ по этому направлению искусственного интеллекта стало снижаться. Слишком неутешительны оказались первые результаты. Авторы объясняли неудачи малой памятью и низким быстродействием существующих в то время компьютеров.

Однако в середине 80-х гг. в Японии в рамках проекта разработки компьютера V поколения, основанного на знаниях, был создан нейрокомпьютер. К этому времени ограничения по памяти и быстродействию были практически сняты. Появились транспьютеры - параллельные компьютеры с большим количеством процессоров. От транспьютеров был один шаг до нейрокомпьютеров , моделирующих структуру мозга человека. Основная область применения нейрокомпьютеров - распознавание образов.

В настоящее время используются три подхода к созданию нейросетей:

аппаратный - создание специальных компьютеров, плат расширения, наборов микросхем, реализующих все необходимые алгоритмы,

программный - создание программ н инструментариев, рассчитанных на высокопроизводительные компьютеры. Сети создаются в памяти компьютера, всю работу выполняют его собственные процессоры;

гибридный - комбинация первых двух. Часть вычислений выполняют специальные платы расширения (сопроцессоры), часть - программные средства.

В основу кибернетики "черного ящика" лег принцип, противоположный нейрокибернетике. Не имеет значения, как устроено "мыслящее" устройство. Главное, чтобы на заданные входные воздействия оно реагировало так же, как человеческий мозг.

Это направление искусственного интеллекта было ориентировано на поиски алгоритмов решения интеллектуальных задач на существующих моделях компьютеров. В 1954 -1963 гг. велись интенсивные поиски моделей и алгоритма человеческого мышления и разработка первых программ. Оказалось, что ни одна из существующих наук - философия, психология, лингвистика - не может предложить такого алгоритма. Тогда кибернетики предложили создать собственные модели. Были созданы и опробованы различные подходы.

В конце 50-х гг. родилась модель лабиринтного поиска . Этот подход представляет задачу как некоторый граф, отражающий пространство состояний, и в этом графе проводится поиск оптимального пути от входных данных к результирующим. Была проделана большая работа по разработке этой модели, но в решении практических задач идея большого распространения не получила,

В 1954 году американский исследователь А.Ньюэлл (A.Newel) решил написать программу для игры в шахматы. Этой идеей он поделился с аналитиками корпорации «РЭНД» (RAND Corporation) Дж. Шоу (J.Show) и Г.Саймоном (H.Simon), которые предложили Ньюэллу свою помощь. В качестве теоретической основы такой программы было решено использовать метод, предложенный в 1950 году Клодом Шенноном (C.E. Shannon), основателем теории информации. Точная формализация этого метода была выполнена Аланом Тьюрингом (Alan Turing). Он же промоделировал его вручную.

К работе была привлечена группа голландских психологов под руководством А. Де Гроота (A. de Groot), изучавших стили игры выдающихся шахматистов. Через два года совместной работы этим коллективом был создан язык программирования ИПЛ1 - по-видимому первый символьный язык обработки списков. Вскоре была написана и первая программа, которую можно отнести к достижениям в области искусственного интеллекта. Эта была программа "Логик-Теоретик" (1956 г.), предназначенная для автоматического доказательства теорем в исчислении высказываний.

Собственно же программа для игры в шахматы, NSS, была завершена в 1957 г. В основе ее работы лежали так называемые эвристики (правила, которые позволяют сделать выбор при отсутствии точных теоретических оснований) и описания целей. Управляющий алгоритм пытался уменьшить различия между оценками текущей ситуации и оценками цели или одной из подцелей.

Начало 60-х гг. - эпоха эвристического программирования . Эвристика - правило, теоретически не обоснованное, но позволяющее сократить количество переборов в пространстве поиска. Эвристическое программирование - разработка стратегии действий на основе известных, заранее заданных эвристик.

В 1960 г. той же группой, на основе принципов, использованных в NSS, была написана программа, которую ее создатели назвали GPS (General Problem Solver)-Универсальный решатель задач. Система GPS была универсальной в том отношении, что "не было конкретного указания, к какой области относится задача". Пользователь должен был задать "проблемную среду" в терминах объектов и тех операторов, которые к ним применимы. Но эта универсальность относилась лишь к ограниченной области математических головоломок с относительно небольшим множеством сocтояний и хорошо очерченных формальных правил. Система GPS функционировала в таком формализованном микромире, где возникающие проблемы, с точки зрения людей, проблемами и не являются.

С технической точки зрения можно сказать, что процесс, известный как "поиск в глубину" и состоящий в последовательном разбиении задачи на подзадачи, пока не будет получена легко решаемая подзадача, является малоэффективным по той причине, что большое число тупиковых направлений подвергается весьма тщательному анализу. Впоследствии исследователи разработали более эффективные стратегии "поиска в ширину".

Эти результаты привлекли внимание специалистов в области вычислений. Появились программы автоматического доказательства теорем из планиметрии и решения алгебраических задач (сформулированных на английском языке).

В конце 60-х годов появились первые игровые программы, системы для элементарного анализа текста и решения некоторых математических задач (геометрии, интегрального исчисления). В возникавших при этом сложных переборных проблемах количество перебираемых вариантов резко снижалось применением всевозможных эвристик и «здравого смысла». Такой подход стали называть эвристическим программированием . Дальнейшее развитие эвристического программирования шло по пути усложнения алгоритмов и улучшения эвристик. Однако вскоре стало ясно, что существует некоторый предел, за которым никакие улучшения эвристик и усложнения алгоритма не повысят качества работы системы и, главное, не расширят ее возможностей. Программа, которая играет в шахматы, никогда не будет играть в шашки или карточные игры.

В 1963- 1970 гг. к решению задач стали подключать методы математической логики. Джона Маккарти (J.McCarty) из Стэнфорда заинтересовали математические основы этих результатов и вообще символьных вычислений. В результате в 1963 г. им был разработан язык ЛИСП (LISP, от List Processing), основу которого составило использование единого спискового представления для программ и данных, применение выражений для определения функций, скобочный синтаксис.

В 1965 г. в США появляется работа Дж.А.Робинсона (J.A.Pobinson) , посвященная несколько иному методу автоматического поиска доказательства теорем в исчислении предикатов первого порядка. Этот метод был назван методом резолюций и послужил отправной точкой для создания нового языка программирования со встроенной процедурой логического вывода - языка Пролог (PROLOG) в 1971.

Постепенно исследователи стали понимать, что всем ранее созданным программам недостает самого важного - знаний в соответствующей области. Специалисты, решая задачи, достигают высоких результатов, благодаря своим знаниям и опыту; если программы будут обращаться к знаниям и применять их, то они тоже достигнут высокого качества работы.

Это понимание, возникшее в начале 70-х годов, по существу, означало качественный скачок в работах по искусственному интеллекту, когда на смену поискам универсального алгоритма мышления пришла идея моделировать конкретные знания специалистов-экспертов. Основополагающие соображения на этот счет высказал в 1977 году на 5-й Объединенной конференции по искусственному интеллекту американский ученый Э.Фейгенбаум (E.Feigenbaum).

Уже к середине 70-х годов появляются первые прикладные интеллектуальные системы, использующие различные способы представления знаний для решения задач - экспертные системы . Экспертная система (ЭС) – это программа, в которую заложены теоретические и практические знания высококвалифицированных специалистов в некоторой конкретной проблемной области и которая способна давать рекомендации по проблемам в этой области с высокой степенью надежности на уровне этих специалистов.

Одной из первых была экспертная система DENDRAL, разработанная в Станфордском университете группой ученых, возглавляемой Эдвардом Фейгенбаумом и предназначенная для порождения формул химических соединений на основе спектрального анализа. В настоящее время DENDRAL поставляется покупателям вместе со спектрометром. Система MYCIN предназначена для диагностики и лечения инфекционных заболеваний крови. Она была родоначальником целой серии медико-диагностических машин, которые используются в рутинной клинической практике. Система MICIN ввела в рассмотрение несколько характеристик, которые стали отличительной чертой экспертных систем. Во-первых, ее знания представляют сотни продукционных правил “если - то”; во-вторых, правила являются вероятностными; в-третьих, используются коэффициенты уверенности; в-четвертых, система может объяснить свой процесс рассуждений. Известная система PROSPECTOR прогнозирует залежи полезных ископаемых. Имеются сведения о том, что с ее помощью были открыты залежи молибдена, ценность которых превосходит 100 миллионов долларов. Система оценки качества воды, реализованная на основе российской технологии SIMER + MIR выявляет причины превышения предельно допустимых концентрациий загрязняющих веществ в Москве-реке в районе Серебрянного Бора. Система CASNET предназначена для диагностики и выбора стратегии лечения глаукомы и т.д.

В настоящее время разработка и реализация экспертных систем выделилась в самостоятельную инженерную область.

Начиная с середины 80-х гг. происходит коммерциализация искусственного интеллекта. Растут ежегодные капиталовложения, создаются промышленные экспертные системы. Искусственный интеллект перенес внимание на область проблем машинного обучения.

Дуг Ленат создал машинную общающуюся систему EURISCO, которая автоматически улучшает и расширяет свой запас эвристических правил. Кроме того, что эта система выигрывала три года подряд в военной игре (несмотря на то, что правила игры каждый раз менялись, чтобы помешать ей это сделать), она смогла произвести переворот в области создания СБИС (сверхбольших интегральных схем), изобретя трехмерный узел типа И/ИЛИ.

В начале 90-х годов исследованиях по искусственному интеллекту сформировалось самостоятельное направление – “инженерия знаний”. Ведутся работы по созданию динамических интеллектуальных систем, т.е. систем, учитывающих изменения, происходящие в окружающем мире за время исполнения приложения.

Рекомендуем почитать

Наверх