Перспективні задачі системного дослідження


 

Вважається, що головним протиріччям майбутнього світу стане антагоністичне протиріччя між прогресом та людиною біологічною. Між швидкістю накопичення та обертання інформації та людською ригідністю (загальмованістю). Між традиціями та новими технологіями. Між штучним середовищем, що швидко змінюється, та природною тваринністю людей. Зміни у світі відбуваються швидше, ніж людина може їх освоїти. Вона перестає встигати за прогресом, і тому людина зі своїм природним біологізмом рано чи пізно стане гальмом для суспільного прогресу.

З тих пір, як людство поступило шахову корону штучному інтелекту, з тієї самої пори, коли чемпіон світу Г. Каспаров програв шаховому комп’ютеру „Дип Блю”, розмови про штучний інтелект перейшли із області наукової фантастики у сферу технічної футурології.

Однак до сих пір зустрічаються люди, які із переконаністю фанатиків повторюють, що ніколи машина не зможе мислити! Якщо ви коли-небудь зустрінете цих раритетних людей, які вважають, що штучний інтелект неможливий, попросіть їх подивитися у дзеркало. Людський інтелект – давним-давно інтелект штучний, тому що сформований штучним середовищем, у якому ми живемо, придуманими словами, якими ми описуємо його. Різниця між мозком та комп’ютером тільки у тому, що у машині електрика із розетки, а у мозку його виробляють клітини. Мозок та комп’ютер працюють по одній логіці. Тільки комп’ютер набагато швидше.

Ідея створення штучної подоби людини для розв’язку складних задач та моделювання людського розуму витала у повітрі ще у древні часи. Так, у древньому Єгипті була створена „оживаюча” механічна статуя бога Амона. У Гомера в „Іліаді” бог Гефест кував людиноподібні істоти-автомати. У літературі ця ідея обігравалася багатократно: від Галатеї Пігмаліона до Буратіно батька Карло. Однак, родоначальником штучного інтелекту вважається середньовіковий іспанський філософ, математик та поет Раймунд Лулій (біля 1235 – біля 1315), який ще у ХІІІ віці намагався створити механічну машину для розв’язку різних задач на основі розробленої їм загальної класифікації понять.

У ХVІІІ столітті Г.В. Лейбніц та Р. Декарт незалежно один від одного продовжили цю ідею, запропонувавши універсальні мови класифікації усіх наук. Ці роботи можна вважати першими теоретичними працями в області штучного інтелекту. Остаточне народження штучного інтелекту як наукового напрямку відбулося лише після створення комп’ютера у 40-х роках ХХ століття.

Термін штучний інтелект (АІ – artificial intelligence) був запропонований у 1956 р. на семінарі з аналогічною назвою у Дартмутському коледжі (США). Семінар був присвячений розробленню методів розв’язку логічних, а не обчислювальних задач. В англійській мові це словосполучення не має того трохи фантастичного антропоморфного забарвлення, яке воно отримало у досить невдалому російському перекладі. Слово intelligence означає „вміння міркувати розумно”, а зовсім не „інтелект”, для якого існує термін „intellect”.

Вже після визнання штучного інтелекту окремою галуззю науки відбулося розділення його на два напрямки: нейро-кібернетики та „кібернетики чорної скриньки”. Ці напрямки розвиваються практично незалежно, суттєво розрізняючись у методології та технології. Й тільки в останній час стало помітне об’єднання цих части знову в єдине ціле.

Реалізація архітектурних принципів побудови комп’ютерів, відомих як принципи Д. фон Неймана, відкрила еру обчислювальної техніки. Загальновідомо, що їх п’ять.

Перший принцип – максимально можлива простота процесора та пов’язана з нею простота машинної мови системи команд комп’ютера.

Другий принцип – послідовне (командно-адресне) керування обчислювальним процесом, коли команди вибираються із оперативного запам’ятовуючого пристрою (ОЗП) і виконуються (у процесорі) послідовно одна за одною. Дані для кожної команди зберігаються у тому ж самому ОЗП за адресами, що вказані у команді. Інтерфейс процесора та ОЗП обмежує можливості цих пристроїв, являючись своєрідним „вузьким місцем” усієї архітектури Д. фон Неймана.

Третій принцип – адресна організація ОЗП з послідовною (лінійною) структурою адрес з фіксованим розміром елементів пам’яті. Така організація ОЗП погано погоджується із складними структурами даних, котрі характерні для більшості сучасних задач.

Четвертий принцип – використання процесора для керування усіма допоміжними операціями, що забезпечують обчислювальний процес: обмінами між ОЗП та зовнішньою пам’яттю, а також введенням/виведенням даних.

І, нарешті, п’ятий принцип – жорсткість архітектури, що виключає довільні зміни конфігурації сукупності пристроїв комп’ютера як з точки зору зміни їх складу, так й з точки зору зміни взаємозв’язків між ними.

У 1949 р. був створений перший ламповий комп’ютер. За 55 років продуктивність комп’ютерів виросла у десятки мільйонів (!) разів. А вВартість однієї логічної операції знизилася у декілька мільйонів разів. Об’єм процесорів – у тисячі разів. Комп’ютерна еволюція іде по класичній експоненті: кожні 1.5-2 роки швидкість та пам’ять комп’ютерів подвоюються.

У 1994 році спеціалісти передбачали, що суперкомп’ютер потужністю в 1 терафлопс (1012 операцій за секунду) з’явиться у 2004 р., а він був створений компанією „Інтел” у грудні 1996 р.

У 1998 р. по замовленню Міністерства енергетики США фірма ІВМ створила суперкомп’ютер „Пасифік Блю” потужністю 4 терафлопса, який працює як 15 тисяч персональних комп’ютерів, а об’єм його пам’яті у 80 тисяч разів більше ніж у „персоналок” (цієї пам’яті досить для зберігання повних текстів усіх 17 мільйонів книжок, зібраних у самій більшій бібліотеці світу – Бібліотеці Конгресу США).

У 2000 році по замовленню вартістю 85 мільйонів $ того ж Міністерства енергетики США був створений суперкомп’ютер „White Version” потужністю 10 терафлопсів.

На початку 2000 р. фірма ІВМ офіційно об’явила, що виділяє 100 мільйонів $ на створення суперкомп’ютера у 1000 терафлопсів під назвою „Блю Джин” і закінчила цей проект у 2005 році. Такий суперкомп’ютер має висоту всього 2 метри та займає площу 4 м2. Запланована швидкодія, - мільярд мільярдів операцій за секунду, що еквівалентне двом мільйонам сучасних персональних комп’ютерів. „Блю Джин” у 1000 разів потужніший, ніж знаменитий „Дип Блю” (1 терафлопс), котрий який обіграв чемпіона світу по шахам Гарі Каспарова.

Створено програму “BACON”, яка обробляє результати спостережень та знаходить закон, якому вони підкоряються. Коли у неї ввели дані спостережень положення планет, вона видала закон Кеплера та закон всесвітнього тяжіння Ньютона. Відкриття, на котрі людство витратило сотні років, були зроблені за декілька секунд!

Через 10-15 років потужності в 1 терафлопс досягнуть вже персональні комп’ютери при тій же вартості у 1 - 1.5 тисяч $.

Що ж може протиставити цьому людський мозок? Людський мозок вміщує біля 10 мільярдів нейронів, що виконують функції логічних елементів та пам’яті. Швидкодія цих елементів, що основана на хімічній природі, невелика – біля 1/100 секунди, і швидкість передачі інформації мала – порядку 30 м/сек.. Це не йде у жодне порівняння із електронним чіпом, що здійснює порядку мільярда операцій за секунду та передає сигнали електричним струмом із швидкістю біля 300 тисяч км/сек.

Отже, безперечно майбутнє за думаючими машинами. І принцип їх роботи має відрізнятися від сучасних комп’ютерів.

У 1936 році англійський математик Алан Матісон Тюрінг (1912 – 1954) описав деяку математичну машину, яку потім назвали його ім’ям. Він довів, що довільні скільки завгодно складні обчислення можна виконувати за допомогою логічних елементів усього трьох типів. Пройшло не так вже багато часу, і придумана машина перетворилася у реальну. Причиною тому послужила Друга світова війна. Якщо б не війна, можливо, люди ще б не одне десятиріччя рахували б на залізних арифмометрах. Проте вимагалися складні балістичні розрахунки, прогнози погоди, дешифрування ворожих шифрів... Перший електронний обчислювальний пристрій побудували британці і називався він „Colossus”.

Американці не на багато спізнилися. Лабораторія балістичних досліджень Міністерства оборони США розраховувала траєкторії снарядів і складала для них корегувальні таблиці. Біля сотні математиків та декілька сот „обчислювачів”, які закінчили підготовчі курси, не могли справитися із усім об’ємом робіт. Це змусило армію звернутися за допомогою до Пенсільванського університету. Через три роки, коли війна вже закінчилася, перший математичний обчислювач був готовий. Він важив 30 т, містив 18 тисяч електронних ламп, споживав 130 кВт і та міг виконувати 300 операцій за секунду. Називався монстр „ENIAC”.

Не дивлячись на те, що обчислювачі були побудовані „по заповітам” Тюрінга, їх стали несправедливо називати нейманівськими – по імені одного із американських розробників. З тих пір більшість комп’ютерів у світі побудовані за цим принципом.

Однак у 1943 році математики У. Мак-Калок (1898 – 1969) та У. Пітс опублікували статтю, де запропонували альтернативу тьюрінгівській машині – обчислювач з принципово іншою архітектурою - нейромереживою. Ідея була запозичена у природи, тобто за основу архітектури взяли звичайний мозок. Було тільки не зрозуміло, як програмувати такі машини. Але у кінці 50-х Френк Розенблат доходить думки, що гіпотетичні нейромережі не треба програмувати, а як і біологічний прототип їх треба навчати!

У 1960 році Розенблат побудував перший примітивний нейрокомп’ютер, який успішно розпізнавав деякі букви. Автор назвав своє дитя перцептроном (від англ. perception – сприйняття). У газетах з’явилися статті про те, що штучний інтелект на підході. Минуло чверть віку. У 1986 році Девід Румельхарт придумує перспективний метод навчання перцептрона. Почувши смажене, схаменулися військові. В Агентстві перспективних військових досліджень США вирішили, що нейрокомп’ютери – як раз їх профіль, і гроші полилися рікою. Почався нейромереживий бум...

З’ясувавши, чим нейрокомп’ютери (перцептрони) відрізняються від звичайних фон- нейманівських машин, зрозуміємо, чим людський мозок відрізняється від комп’ютера.

Щоби не вдаватися у технічні подробиці, приведемо аналогію. Нехай є функція:

 

y = (7x + 5)/9.

 

Як отриматиy при x = 4? 4 множать на 7, далі прибавляють 5. Потім ділять отриманий результат на 9. Послідовність таких дій є алгоритмом, тобто програмою.

Проте існує другий спосіб розв’язати цю задачу. Можна побудувати графік цієї функції. Потім взяти лінійку і провести перпендикуляр від точки 4 на вісі x. Знаходячи точку пересічення функції та цієї прямої, отримують шуканий результат.

Здавалося б, яка різниця між цими двома способами? І те й інше – математика, щоби побудувати функцію, потрібно раз по разу підставляти у формулу різні значення x. Чому б зразу не підставити потрібне, нащо зайвий хід – функцію малювати?

А уявімо собі ситуацію, коли формула відсутня, а є графік. Ну, наприклад, намалюйте на міліметрівці профіль своєї коханої дівчини. Ви замучуєтесь шукати функцію (точніше, цілий набір функцій), що описує цей профіль. А профіль ось він!

Процес навчання нейромережі, наприклад, виховання людини, являється свого роду побудовою готового графіка. Дитині формують поведінкові стереотипи, вчать, як поводитися у різних ситуаціях – дають готовий графік. Стикуючись із незвичайним та екстраполюючи цей поведінковий графік, дитина розуміє, як повестись у незнайомих ситуаціях.

Вашому головному нейрокомп’ютеру батьки повідомляють готовий результат – яке y1 при x1. Ви ставите у розумі точку. Вам дають другу пару чисел – x2, y2, ви ставите другу точку. Якщо у вас багато-багато точок, ви розміщуєте їх у системі координат, поєднуєте близькі, і таким чином у вас оформлюється чудова крива поведінки. Тепер ви можете по довільному x з’ясувати y, не знаючи ніяких формул. Просто подивившись на малюнок.

Інтуїція, між іншим, працює так само. Нейромережа у нас у голові узагальнює досвід, масив знань, будує графік і по йому видає готовий результат. Видає, інколи минаючи свідомість; відповідь спливає ніби нізвідки, а насправді – з підкоркових глибин мозку.

Чим же нейромережі прогресивніше тьюрінгівських (нейманівських) машин?

Для роботи з машиною Тьюрінга усяку задачу треба формалізувати (силует коханої перетворити у набір функцій: прямий ніс буде описаний лінійною функцією, а опуклий лоб гіперболою тощо). При цьому якщо із вінчестером нейманівської машини трапиться яка-небудь неприємність і хоча б одна із формул буде пошкодженою, хибним з’явиться й кінцевий результат. Для такого комп’ютера помилка фатальна.

Для графіка ж втрата частини даних не грає вирішальної ролі. Якщо намалювали профіль коханої, а потім хтось стер ластиком ніс або частину лоба, завжди можна відновити втрачене, продовживши лінії, що залишилися. Так працює природна нейромережа – мозок.

Людський мозок – гарний приклад асоціативної нейромережі. В історії людства було немало випадків, коли деяка задача розв’язувалася людиною у сні, тобто її нейромережа сама без участі свідомості виявляла закономірності. Яскравий приклад – Д.І. Менделєєв. Коли він писав підручник „Основи хімії”, у нього була велика база даних – усі відомі на той час хімічні елементи, їх властивості, валентність та атомна маса. Менделєєв заснув, і йому було бачення – періодична таблиця.

Антропологи стверджують, що під час сну мозок витрачає на 10% більше енергії, ніж коли ми не спимо (потужність мозку біля 25 Вт, частота 100 Гц). Це пов’язане з тим, що нейромережа у нашій голові у фазі парадоксального сну виконує дуже важливу роботу – оброблює накопичену вдень інформацію.

Між іншим, для сучасних нейрокомп’ютерів відкриття періодичної системи при тому об’ємі інформації, який був до 1869 року, простіша задача! Довільний нейромережевий симулятор із нині діючих відкрив би цей закон за лічені секунди! Погодьтесь, це вже здібність мислити, а коли вона переросте у повноцінний розум – питання часу.

Бельгійський вчений Хьюго де Гарі передбачає, що через 50 - 100 років штучний інтелект зможе виконувати розумові операції у 10 000 000 000 разів швидше людини. У такому „мозку” кожний атом буде являтися нейроном. А головне розміри черепної коробки не заважатимуть штучному мозку нарощувати об’єм пам’яті та обчислювальні здібності.

Зараз в усьому світі йдуть роботи над квантовими комп’ютерами. Нобелевський лауреат Р.Ф. Фейнман (народ. у 1918) у 1986 році опублікував статтю про перспективи таких комп’ютерів. Що таке квантовий комп’ютер? У ньому елементарним обчислювальним пристроєм процесора являється не радіолампа, не транзистор, а один-єдиний атом, наприклад, фосфору-31. По законам квантової механіки атом змінює свій енергетичний стан стрибком і відбувається це зі швидкістю світла. Це як раз для комп’ютера – не збуджений стан – нуль, збуджений – одиниця. І тут відкриваються вражаючі можливості для їх мініатюризації та фантастичної швидкодії.

Наприклад, у 1994 році американський дослідник Пітер Шон підрахував, що квантовий комп’ютер обчислить факторіал тисячозначного числа усього за декілька годин. У той же час кілька сотень звичайних комп’ютерів витратили б на цю задачу 1025 років. (Для довідки: вважається, що вік Всесвіту 1010 років).

Рано чи пізно кількість перейде в якість, і обчислювальна система набере такі властивості, придивившись до котрих, ми, залишаючись чесними, не зможемо не назвати їх розумом. І по аналогії із природним розумом процес мислення штучного мозку має бути системним. І саме тут відкривається неосяжне поле для діяльності системних аналітиків, яким доведеться при навчанні штучного мозку мати справу із проблемами права, моралі, етики тощо.