Шведська королівська академія наук 8 жовтня присудила Нобелівську премію з фізики в 2024 році американському науковцю Джону Гопфілду з Принстонського університету та англо-канадському науковцю Джефрі Гінтону з Торонтського університету «за фундаментальні відкриття та винаходи, що уможливлюють машинне навчання за допомогою штучних нейронних мереж». Використовуючи концепції та методи з фізики, вони заклали основи для штучних нейронних мереж, чому значною мірою завдячує сучасний стан та бурхливий розвиток штучного інтелекту. «Машини, що навчаються» — саме з таких слів професор Ганс Еллеґрен почав оголошувати цьогорічних лауреатів. Проте одразу ж виникає природне запитання: чому саме премія з фізики?
З очевидних історичних причин не існує Нобелівської премії з інформатики. Найпрестижнішою премією в галузі комп’ютерних наук та аналогом Нобелівської є премія Тюринґа, лауреатом якої, до речі, раніше вже був Джефрі Гінтон. Він є другою в історії людиною, хто отримав обидві премії (першим був соціолог та економіст Герберт Саймон, утім він здобув Нобелівку з економіки). Також важливо пам’ятати, що сучасна наука зазвичай не має чітко окреслених меж і є значно складнішою, ніж була навіть 20–30 років тому. Власне, лауреати це дуже наочно демонструють.
Джон Гопфілд захистив ступінь доктора філософії в галузі фізики в 1958 році й тривалий час опісля працював у лабораторії Белла в США, досліджуючи оптичні властивості напівпровідників, проте уже з 1970-х років почав активно займатися молекулярною біологією та нейронаукою. Так, він є з молекулярної біології. Джефрі Гінтон після численних змін сфери діяльності (так, у 1970 році він став бакалавром в галузі експериментальної психології), лише в 1978 отримав ступінь доктора філософії зі штучного інтелекту. Він ніколи не був безпосередньо залучений до фізики й вважається «хрещеним батьком глибинного навчання». Саме учень Джефрі Гінтона, українець Олександр Крижевський, розробив відому згорткову нейронну мережу для розпізнавання зображень — AlexNet, яка відіграла значну роль у розвитку комп’ютерного зору (так, статтю про неї в Google Scholar процитували наразі 163519 разів). Гінтон наразі є професором-емеритом з комп’ютерних наук.
Творці ідеї штучних нейронних мереж спочатку надихалися бажанням зрозуміти, як саме працює мозок, та спробами використати мережу нейронів як комп’ютерну симуляцію. Підхід полягав у тому, щоб використовувати для обчислень мережу, в якій вузли б виконували якусь просту операцію (обчислення однопараметричної математичної функції), а зв’язки між вузлами ставали сильнішими чи слабшими (мали більшу чи меншу вагу) в процесі тренування (навчання) такої мережі. Подібні ідеї з’явилися ще в 1940-х роках, проте справжній інтерес до цієї сфери відродився у 1980-х, коли виникло декілька нових важливих проривів, включно з роботами цьогорічних лауреатів. Так, з використанням фундаментальних концепцій зі статистичної фізики в 1982 році було створено нейронну мережу Гопфілда (різновид ), яка фактично функціонує, як асоціативна пам’ять. Для такої мережі Гопфілд ввів поняття? аналогічне поняттю енергії в спінових системах у фізиці. Мережа була зроблена так, що її мінімальна енергія відповідала заданим наперед картинкам. Коли мережа «бачила» інше зображення, вона мінімізувала свою енергію і так знаходила локальні мінімуми, які відповідали «пам’яті» системи про запрограмовані раніше картинки, тобто фактично відтворювала одне з початкових зображень. Цікаво, що така мережа має безпосередню аналогію у фізиці — спінове скло, невпорядкований магнітний матеріал. Джефрі Гінтон та Террі Сейновскі зробили такої мережі Гопфілда на основі статистичної фізики, яку назвали машиною Больцмана. Така система теж має безпосередній фізичний аналог — стохастичну модель Ізінґа. І якщо у чистому випадку машина Больцмана має в основному теоретичну цінність, то прибравши частину зв’язків між вузлами мережі (обмежена машина Больцмана), вона набула ще й практичної цінності — наприклад, розпізнавання мовлення. Також за допомогою використання обмежених машин Больцмана Джефрі Гінтон зміг першим створити мережі глибинного навчання (тобто такі, що містили велику кількість прихованих шарів, через що й така назва). Сучасне глибинне навчання вже не потребує їх використання, так як обчислювальні потужності дозволяють використовувати інші методи.
Іншим важливим внеском лауреатів був розвиток нейронних мереж прямого поширення (feedforward neural networks). У 1980-х роках Джефрі Гінтон показав, як такі мережі можна натренувати й використати для широкого спектру завдань. Саме на такій моделі базується більшість нейронних мереж, які ми використовуємо в повсякденному житті сьогодні: розпізнавання зображень, великі мовні моделі, як от ChatGPT, тощо. У телефонній розмові під час оголошення лауреатів Нобелівської премії Джефрі Гінтон особисто відзначив, що вважає своїм найвагомішим з практичної точки зору внеском в цю сферу саме впровадження методу зворотного поширення помилки (backpropagation), без якого неможливо було б тренувати подібні мережі. Це алгоритм, який дозволяє оновлювати параметри штучної нейронної мережі під час навчання залежно від того, наскільки наявні зв’язки між вузлами мережі важливі для обраної задачі.
Цікаво також поглянути на динаміку розвитку штучних нейронних мереж. У 1982 році в своїй мережі Гопфілд використав близько 30 вузлів, що з урахуванням зв’язків між ними становило менше ніж 500 параметрів для всієї мережі, а побудова більшої мережі викликала значні труднощі через обмежені можливості обчислювальної техніки того часу. Для порівняння, найпотужніші великі мовні моделі, що існують на сьогодні, налічують понад 1 трильйон параметрів (тобто мільйон мільйонів!).
Але фізика не лише надихала та давала ідеї для всіх цих моделей та підходів. Закономірно, фізика також і виграла від впроваджених та розроблених методів. Так, на сьогодні машинне навчання та штучні нейронні мережі активно використовують у фізиці високих енергій та астрофізиці (розпізнавання галактик, аналіз великих обсягів різнорідних даних тощо). Такі методи також широко використовуються для прискорення розрахунків, покращення точності кліматичних моделей, пошуку нових матеріалів з бажаними властивостями, передбачення принципово нових матеріалів, які можуть бути використані, наприклад, для створення кращих елементів живлення, сонячних панелей чи навіть квантових комп’ютерів. Застосування в науці не обмежується суто фізичними науками й поширюється також на, наприклад, біологічні науки. Так, уже відомо, що Нобелівську премію з хімії цього року дали за комп’ютерне моделювання білків тими ж методами машинного навчання.
Практичних та повсякденних застосувань також вдосталь. Тепер кожен може запитати й подискутувати з ChatGPT, чи в правильній категорії видали цю премію; машинне навчання вже масово допомагає медикам в діагностиці цілого ряду захворювань, зокрема раку. Автономні автомобілі поступово стають дедалі реальнішими, з’являється щораз більше військових застосувань машинного навчання, а згенеровані штучним інтелектом аудіовізуальні дані дедалі складніше відрізнити від справжніх. Це все, звісно, породжує й ризики, про які варто пам’ятати.
Так, Джефрі Гілтон в травні 2023 року покинув Google, щоб «вільно говорити про ризики штучного інтелекту». Він, як і багато інших експертів в галузі, висловлював стурбованість щодо навмисного зловживання інструментами штучного інтелекту (наприклад, для крадіжки або підробки особистості, поширення дезінформації) та попереджав щодо можливості технологічного безробіття та екзистенційних ризиків від загального штучного інтелекту.
Тож зважаючи на революційність та значущість сучасних штучних нейронних мереж, не дивно, що Нобелівський комітет вирішив відзначити дослідження в цій галузі такою нагородою. Майже кожен день дивує подальшим швидким розвитком штучного інтелекту та його застосувань, тож залишається лише встигати за новинами та протидіяти ризикам.
Виправлення: «українець Олексій Крижевський» замінено на «українець Олександр Крижевський». Просимо вибачення за помилку.