Оригінальна публікація: The History of Artificial Intelligence from the 1950s to Today

Люди завжди були зацікавлені у створенні машин, які демонструють інтелект.

Стародавні єгиптяни та греки були вражені релігійними статуями, якими керували жерці.

Середньовічний фольклор повний історій про предмети, які могли рухатись та говорити, як лялькарі. Були навіть історії про мудреців, які мали доступ до гомункула — маленької штучної людини, яка насправді була живою розумною істотою.

Швейцарський філософ 16 століття Теофраст Парацельс сказав:

«Ми будемо богами. Ми відтворимо найбільше Боже чудо — створення людини.»

Остання наша спроба створити синтетичний інтелект тепер відома як ШІ (штучний інтелект).

У цій публікації я надіюсь надати вичерпну історію штучного інтелекту від його менш відомих днів (коли він не називався ШІ) до сучасної епохи генеративного ШІ.

«Штучний інтелект — це наука та техніка створення інтелектуальних машин, особливо інтелектуальних комп’ютерних програм.» — Джон Маккарті

Що ми розглянемо:

У цій статті ми розглянемо 9 етапів історії ШІ, які між собою пов’язані. Я обговорюватиму їхній вклад до загальної історії ШІ та їхній розвиток.

Етапи, які ми розглянемо:

Дартмутська конференція

Дартмутська конференція 1956 року є визначальною подією в історії ШІ. Це був літній дослідницький проєкт, який відбувся в 1956 році у Дартмутському коледжі в Нью-Гемпширі, США.

Це була перша конференція, яка об’єднала дослідників із, здавалося б, різних галузей дослідження — інформатики, математики, фізики та інших — з метою дослідити потенціал синтетичного інтелекту (терміну ШІ ще не існувало).

Участь взяли Джон Маккарті, Марвін Мінський та інші визначні науковці й дослідники.

Учасники конференції обговорили широкий спектр тем, пов’язаних з ШІ, серед яких обробка природної мови, розв’язання задач та машинне навчання. Вони також проклали дорожню карту для дослідження ШІ, включно з розробкою мов програмування та алгоритмами для створення інтелектуальних машин.

Ця конференція вважається визначальною подією в історії ШІ, оскільки тоді зародилась галузь та поняття «Штучний інтелект».

Дартмутська конференція мала значний вплив на загальну історію ШІ. Вона допомогла започаткувати галузь дослідження ШІ та сприяла розвитку нових технологій.

Учасники виклали бачення щодо ШІ, що включало створення інтелектуальних машин, які б могли міркувати, думати та спілкуватися, як люди. Таке бачення викликало хвилю досліджень та інновацій у цій галузі.

Після конференції Джон Маккарті та його колеги розробили першу мову програмування ШІ — LISP. Ця мова стала основою досліджень ШІ й існує досі.

Завдяки конференції також створили дослідницькі лабораторії штучного інтелекту в декількох університетах та інститутах, включно з MIT, Carnegie Mellon та Stanford.

Однією з найважливіших спадщин Дартмутської конференції є розробка тесту Тюрінга.

Британський математик Алан Тюрінг запропонував ідею тесту, який визначатиме, чи машина здатна демонструвати поведінку, яку не розрізнити від людської.

Цю концепцію обговорили на конференції та вона стала центральною ідеєю в галузі дослідження ШІ. Сьогодні тест Тюрінга залишається важливим орієнтиром для вимірювання прогресу досліджень ШІ.

Дартмутська конференція стала ключовою подією в історії ШІ. Вона започаткувала галузь ШІ, проклала дорожню карту для досліджень та викликала хвилю інновацій. Наслідки конференції можна побачити в розробці мов програмування ШІ, дослідницьких лабораторіях й тесті Тюрінга.

Перцептрон

Перцептрон — це архітектура штучної нейронної мережі, яку розробив психолог Френк Розенблат у 1958 році. Це стало поштовхом до підходу, натхненного мозком, де науковці створюють системи штучного інтелекту, щоб імітувати людський мозок.

З технічної точки зору, перцептрон — це двійковий класифікатор, який може навчитися класифікувати вхідні шаблони на дві категорії. Він приймає набір вхідних значень та розраховує їхню зважену суму, після чого порогова функція визначає результат (1 чи 0). Вагові коефіцієнти змінюються під час навчання, щоб оптимізувати продуктивність класифікатора.

Перцептрон вважали важливим кроком у галузі ШІ, оскільки він продемонстрував потенціал алгоритмів машинного навчання імітувати людський інтелект. Він показав, що машини можуть навчатися на досвіді та покращувати свою роботу так само, як і люди.

Перцептрон також важливий через те, що став наступним етапом після Дартмутської конференції. Конференція зацікавила потенціалом ШІ, але це було лише теоретичною концепцією. А ось перцептрон був практичною реалізацією, яка довела, що цю концепцію можна перетворити в робочу систему.

Початково перцептрон називали проривом у галузі ШІ, тому він привернув багато уваги ЗМІ. Однак пізніше виявилось, що алгоритм має обмеження, особливо при роботі зі складними даними. Це призвело до зниження інтересу до перцептрона та досліджень штучного інтелекту наприкінці 1960-х та 1970-х років.

Але згодом перцептрон було відроджено та включено до складніших нейронних мереж, що призвело до розвитку глибинного навчання та інших форм сучасного машинного навчання.

Сьогодні перцептрон розглядають як важливий етап історії ШІ. Його продовжують вивчати та використовувати у дослідженнях й розробках нових технологій ШІ.

Бум штучного інтелекту в 1960-х

Як говорилось раніше, 1950-ті були значним десятиліттям для спільноти ШІ завдяки створенню та популяризації штучної нейронної мережі «Перцептрон». Перцептрон вважався переломним моментом у дослідженнях ШІ та викликав великий інтерес до цієї галузі, що призвело до буму ШІ.

Бум ШІ 1960-х був періодом значного прогресу та інтересу до розвитку штучного інтелекту (ШІ). Інформатики й науковці досліджували нові методи створення інтелектуальних машин та програмування їх для виконання завдань, які традиційно потребували людського інтелекту.

У 1960-х були виявлені очевидні недоліки перцептрона, тому науковці почали досліджувати інші підходи до ШІ. Вони зосередилися на символічному мисленні, обробці природної мови та машинному навчанні.

Це дослідження призвело до розробки нових мов програмування та інструментів, які були створені спеціально для ШІ (наприклад, LISP та Prolog). Нові інструменти полегшили експерименти над новими техніками та розробкою складніших систем ШІ.

У цей час уряд США також зацікавився у штучному інтелекті та почав фінансувати дослідницькі проєкти через агенції, як-от Агентство передових оборонних дослідницьких проєктів США (DARPA). Фінансування допомогло прискорити розвиток ШІ та надало ресурси, необхідні для розв’язку складніших завдань.

Бум ШІ 1960-х завершився розробкою декількох знакових систем ШІ. Однією з них є General Problem Solver (GPS), яку створили Герберт Саймон, Кліф Шоу та Аллен Ньюелл. GPS була ранньою системою ШІ, яка могла розв’язувати проблеми шляхом пошуку серед можливих розв’язків.

Ще одним прикладом є ELIZA, створена Джозефом Вейценбаумом, яка була програмою обробки природної мови та імітувала психотерапевта.

Бум ШІ 1960-х був періодом значного прогресу в дослідженнях та розвитку штучного інтелекту. Науковці розробляли нові підходи до ШІ та створювали нові мови програмування й інструменти. Це дослідження призвело до розробки декількох визначних систем ШІ, які проклали шлях для майбутнього розвитку ШІ.

Зима штучного інтелекту в 1980-х

Зима штучного інтелекту 1980-х позначає період, коли дослідження та розробка в галузі штучного інтелекту зазнали сповільнення. Цей період тривав з 1974 по 1993, одразу після десятиліття значного прогресу в дослідженнях і розробках ШІ.

Як згадувалось в попередньому розділі, бум штучного інтелекту в 1960-х роках характеризувався вибухом досліджень і застосувань ШІ. Але після цього настала зима штучного інтелекту, яка відбулась в 1980-х.

Частково причиною було те, що багато проєктів не виправдили очікувань. Дослідницька спільнота штучного інтелекту дедалі більше розчаровувалась відсутністю прогресу. Це призвело до скорочення фінансування, тому багато дослідників були змушені відмовитися від своїх проєктів і залишити сферу діяльності.

Згідно зі звітом Комісії з наукових досліджень Великобританії Lighthill,

Штучний інтелект не зміг досягти грандіозних цілей. Наразі жодне відкриття не принесло обіцяного впливу.

Зима штучного інтелекту 1980-х характеризувалась значним скороченням фінансування та відсутністю інтересу серед інвесторів та громадськості. Це призвело до зменшення кількості проєктів у розробці, а активні проєкти не змогли досягти значного прогресу через брак ресурсів.

Попри виклики зими штучного інтелекту, галузь не зникла. Деякі науковці продовжили працювати над проєктами та досягли успіхів, включно з нейронними мережами та машинним навчанням. Прогрес був повільним, але в 1990-х інтерес до штучного інтелекту знову почав зростати.

Загалом зима штучного інтелекту 1980-х була важливою епохою в історії ШІ, оскільки продемонструвала проблеми та обмеження досліджень й розробки. Цей період став повчальним уроком для інвесторів і політиків, які зрозуміли, що ажіотаж навколо штучного інтелекту може бути перебільшеним та ця галузь вимагає постійних інвестицій і відданості.

Створення експертних систем

Експертна система — це технологія штучного інтелекту, яку розробили у 1980-х. Експертні системи створені для імітації здібностей людини-експерта в певній галузі, як-от медицина, фінанси чи інженерія.

Протягом 1960-х та 1970-х навколо ШІ було багато оптимізму й уваги завдяки потенційним змінам індустрій. Як ми обговорили в попередньому розділі, цей ентузіазм послабила зима штучного інтелекту, яка характеризувалася відсутністю прогресу та фінансування досліджень.

Розвиток експертних систем став переломним моментом в історії ШІ. Тиск на спільноту ШІ зріс разом із попитом надання практичних, масштабних, надійних та якісних програм штучного інтелекту.

Експертні системи довели, що системи ШІ можна використовувати у реальному житті та мають потенціал для надання значних переваг підприємствам і галузям. Експертні системи використовували для автоматизації процесів прийняття рішень у різних галузях, від діагностики захворювань до прогнозування цін на акції.

З технічної точки зору, експертні системи зазвичай складаються з бази знань, яка містить інформацію про певну галузь, та машини висновування, яка використовує цю інформацію, щоб обдумати нові вхідні дані та прийняти рішення. Експертні системи також об’єднують різні форми мислення, як-от дедукція, індукція та абдукція, щоб імітувати процеси прийняття рішень людьми-експертами.

Експертні системи стали важливим етапом в історії ШІ, оскільки вони продемонстрували практичне застосування технологій ШІ та проклали шлях для подальшого розвитку.

Експертні системи продовжують використовувати й сьогодні, а їх розвиток призвів до створення інших технологій ШІ, як-от машинне навчання та обробка природної мови.

Поява обробки природної мови та комп’ютерного бачення в 1990-х

Дослідження та глобалізація ШІ протягом 1990-х почали різко розвиватись. Цей період відкрив сучасну еру досліджень штучного інтелекту.

Як згадувалось в попередньому розділі, експертні системи з’явилися наприкінці 1980-х і на початку 1990-х років. Але вони були обмежені тим, що покладалися на структуровані дані та логіку, засновану на правилах. Їм було важко обробляти неструктуровані дані (наприклад, текст природною мовою чи зображення), які за своєю суттю неоднозначні та залежать від контексту.

Щоб усунути це обмеження, науковці почали розробляти методи обробки природної мови та візуальної інформації.

У 1970-х і 1980-х роках було досягнуто значного прогресу в розробці систем на основі правил для обробки природної мови та комп’ютерного бачення. Але ці системи досі були обмежені тим фактом, що покладалися на заздалегідь визначені правила і не могли навчатися на основі даних.

У 1990-х роках розвиток алгоритмів машинного навчання та обчислювальної потужності призвів до розробки складніших систем обробки природної мови та комп’ютерного бачення.

Науковці почали використовувати статистичні методи, щоб вивчати закономірності та особливості безпосередньо з даних, а не покладатися на заздалегідь визначені правила. Цей підхід, відомий як машинне навчання, дозволив створити точніші та гнучкіші моделі обробки природної мови та візуальної інформації.

Одним з головних досягнень цього етапу стала прихована марковська модель (ПММ), яка дозволила ймовірнісне моделювання тексту природної мови. Це призвело до значного прогресу в розпізнаванні мовлення, мовному перекладі та класифікації тексту.

А ось у галузі комп’ютерного бачення з’явились згорткові нейронні мережі (ЗНМ), що дозволило точніше розпізнавати об’єкти та класифікувати зображення.

Зараз ці техніки використовуються в широкому діапазоні, від безпілотних автомобілів до медичної візуалізації.

Загалом, поява обробки природної мови та комп’ютерного бачення в 1990-х стала важливим моментом в історії ШІ. Вони дозволили складнішу та гнучкішу обробку неструктурованих даних.

Сьогодні ці техніки залишаються в центрі досліджень і розробок ШІ, оскільки мають значні наслідки для широкого кола галузей і застосувань.

Розвиток великих даних

Ідея великих даних існує десятиліттями, але її популярність у контексті штучного інтелекту (ШІ) можна простежити на початку 2000-х років. Перш ніж ми заглибимося в те, як це пов’язано із ШІ, коротко обговоримо термін «Великі дані».

Щоб дані можна було назвати великими, вони повинні відповідати трьом основним атрибутам: обсяг, швидкість і різноманітність.

Обсяг означає розмір набору даних, який може коливатися від терабайтів до петабайтів або навіть більше.

Швидкість означає швидкість, з якою дані генеруються та мають бути оброблені. Наприклад, дані з соціальних мереж або пристроїв IoT можуть генеруватися в режимі реального часу, і їх потрібно швидко обробляти.

Різноманітність стосується різноманітних типів даних, які генеруються, включно зі структурованими, неструктурованими та напівструктурованими даними.

До появи великих даних ШІ був обмежений кількістю та якістю даних, які були доступні для навчання та тестування алгоритмів машинного навчання.

Обробка природної мови та комп’ютерне бачення були двома сферами штучного інтелекту, які досягнули прогресу в 1990-х, але були обмежені обсягом доступних даних.

Наприклад, ранні системи NLP базувалися на створених вручну правилах, які були обмежені у своїй здатності впоратися зі складністю та мінливістю природної мови.

Розвиток великих даних змінив це, забезпечивши доступ до величезних обсягів даних із різноманітних джерел, зокрема соціальних мереж, датчиків та інших підключених пристроїв. Це дозволило навчати алгоритми машинного навчання на значно більших наборах даних, що дозволило вивчати складніші шаблони та робити точніші прогнози.

Разом з тим прогрес у технологіях зберігання й обробки даних (наприклад, Hadoop і Spark) дозволив обробляти та аналізувати ці великі набори даних швидко й ефективно. Це призвело до розробки нових алгоритмів машинного навчання (наприклад, глибинне навчання), які здатні навчатися з величезних обсягів даних і робити точні прогнози.

Сьогодні великі дані продовжують залишатися рушійною силою багатьох останніх досягнень ШІ, від автономних транспортних засобів і персоналізованої медицини до систем розуміння природної мови та рекомендацій.

Оскільки кількість даних, які генеруються, продовжує зростати, роль великих даних у штучному інтелекті стане лише важливішою в найближчі роки.

Поява глибинного навчання

Поява глибинного навчання — важливий крок у глобалізації сучасного штучного інтелекту.

З часів Дартмутської конференції штучний інтелект був визнаний законним полем дослідження, а перші дослідження були зосереджені на символічній логіці та системах, заснованих на правилах. Це передбачало ручне програмування машин для прийняття рішень на основі набору заздалегідь визначених правил. Хоча ці системи були корисними в певних програмах, вони були обмежені у своїй здатності навчатися та адаптуватися до нових даних.

Глибинне навчання стало важливим в історії ШІ лише після появи великих даних. Через зростання обсягу доступних даних науковцям потрібні були нові способи, щоб детальніше ознайомитись з величезними обсягами інформації.

Алгоритми глибинного навчання забезпечили розв’язання цієї проблеми, дозволивши машинам автоматично навчатися з великих наборів даних і робити прогнози або приймати рішення на основі цього навчання.

Глибинне навчання — це вид машинного навчання, що використовує штучні нейронні мережі, які моделюються за структурою та функціями людського мозку. Ці мережі складаються з шарів взаємопов’язаних вузлів, кожен з яких виконує певну математичну функцію над вхідними даними. Вихідні дані одного рівня служать вхідними даними для наступного, дозволяючи мережі отримувати дедалі складніші характеристики з даних.

Однією з ключових переваг глибинного навчання є його здатність вивчати ієрархічні представлення даних. Це означає, що мережа може автоматично навчитися розпізнавати шаблони та особливості на різних рівнях абстракції.

Наприклад, мережа глибинного навчання може навчитися розпізнавати форми окремих букв, потім структуру слів, а згодом значення речень.

Розвиток глибинного навчання призвів до значних проривів у таких сферах, як комп’ютерне бачення, розпізнавання мовлення та обробка природної мови. Наприклад, алгоритми глибинного навчання тепер здатні точно класифікувати зображення, розпізнавати мовлення та навіть генерувати реалістичну людську мову.

Глибинне навчання є важливим кроком в історії штучного інтелекту, що стало можливим завдяки поширенню великих даних. Його здатність автоматично навчатися з величезних обсягів інформації призвела до значного прогресу в широкому діапазоні застосувань, і, ймовірно, воно й надалі залишатиметься ключовою сферою досліджень та розробок.

Розробка генеративного штучного інтелекту

Наразі ми перебуваємо на цьому етапі. Генеративний штучний інтелект — це підгалузь штучного інтелекту, яка передбачає створення систем ШІ, здатних генерувати нові дані або контент, подібний до даних, на яких він навчався. Сюди входять створення зображень, тексту, музики та навіть відео.

Генеративний штучний інтелект можна вважати важливим етапом, який відбувся після появи глибинного навчання. Глибинне навчання — це підмножина машинного навчання, яка передбачає використання нейронних мереж із кількома рівнями для аналізу та вивчення великих обсягів даних. Воно було неймовірно успішним у розпізнаванні зображень і мови, обробці природної мови та навіть у складних іграх, як-от Go.

Трансформери — тип архітектури нейронної мережі — різко змінили генеративний ШІ. Вони були представлені в статті Vaswani et al. у 2017 році й відтоді їх використовували в різних завданнях, включно з обробкою природної мови, розпізнаванням зображень і синтезом мовлення.

Трансформери використовують механізми самоуваги для аналізу зв’язків між різними елементами в послідовності, що дозволяє їм генерувати більш узгоджений результат. Це призвело до розробки великих моделей мови, як-от GPT-4 (ChatGPT), які можуть генерувати людський текст на багато тем. (Ось цікавий курс, де ви можете створити власний клон ChatGPT, якщо хочете дізнатися більше.)

Мистецтво — ще одна галузь, на яку повпливав штучний інтелект. Навчаючи моделі глибинного навчання на великих наборах мистецьких даних, генеративний ШІ може створювати нові та унікальні картини.

Використання ШІ в мистецтві викликало дискусію щодо креативності та авторського права, а також етику використання ШІ. Дехто стверджує, що мистецтво, створене ШІ, не є творчим, оскільки йому бракує навмисності та емоційного резонансу мистецтва, притаманних людям. Інші стверджують, що ШІ має власну цінність і може бути використаний для дослідження нових форм творчості.

Великі моделі мови, як-от GPT-4, також використовуються у галузі письма, зазвичай для написання нового тексту чи натхнення.

Звідси виникли питання щодо майбутньої ролі ШІ у творчому процесі. У той час як одні стверджують, що тексту, створеному штучним інтелектом, не вистачає глибини й тонкостей людського письма, інші бачать у ньому інструмент, який може підвищити людську творчість, надаючи нові ідеї.

Генеративний ШІ, особливо за допомогою трансформерів і великих моделей мов, може змінити багато сфер, від мистецтва до симуляції. Хоча й досі тривають дебати щодо креативності та етики використання ШІ в цих сферах, очевидно, що генеративний ШІ є потужним інструментом, який продовжить формувати майбутнє технологій і мистецтва.

Висновок

Історія штучного інтелекту цікава, але й викликає роздуми. Вона містить як розчарування, так і феноменальні прориви.

Завдяки таким застосункам, як ChatGPT, Dalle.E та іншим, ми вивчили лише поверхню можливих застосувань ШІ. Існують й проблеми, яких стане ще більше. Головне залишатися як неупередженим оптимістом, так і безмежним песимістом.