Виступаючи 18 квітня 2023 року на круглому столі в НДУ ВШЕ, присвяченому обговоренню правового регулювання і застосування нейромережевих технологій, голова Патріаршої комісії з питань сім'ї, захисту материнства і дитинства ієрей Феодор Лук'янов, заявив, що потрібно розробити і закріпити на законодавчому рівні введення дисклеймера для нейромереж, тобто попередження про те, людина буде спілкуватися зі штучним інтелектом. Крім того, голова Патріаршої комісії вважає, що через високу небезпеку впливу на дитячу психіку, неповнолітніх необхідно захистити від доступу до нейромереж. І нарешті, як зазначив він у своїй презентації, «потрібна заборона на антропоморфізацію програм, технологій, роботів, тобто заборона на перенесення людського образу і його властивостей на неживі предмети».
Пропозиції Отця Феодора, викликані побоюваннями, які озвучують численні вузькопрофільні фахівці і вчені, які безпосередньо працюють зі штучним інтелектом. Незважаючи на обіцянки менеджерів, серед яких є вельми високопоставлені представники IT і фінансового сектора, що штучний інтелект зробить всіх нас вільніше і щасливіше, з точки зору добре обізнаних фахівців, все може виявитися зовсім навпаки..
Що ми маємо на увазі, говорячи про штучний інтелект?
Існують три типи штучного інтелекту, розповів в інтерв'ю РІА «Новости» Данило Макєєв, керівник IT-напрямку в Московському міському відкритому коледжі. Всі існуючі відносяться до ANI — «вузькому ШІ», спрямованому на виконання певних завдань. Наступний щабель-AGI, загальний штучний інтелект, або, як його ще називають, «сильний ШІ». Він зможе вирішувати будь-які завдання, доступні людському інтелекту. Логічним розвитком цієї системи повинен стати ASI - »суперінтелект". Такого поки не існує.
"Може здатися, що нейромережа ChatGPT це і є той самий ШІ, здатний розвинути емпатію, навчитися думати, як людина, і діяти самостійно. Але це не так. Незважаючи на те що нейромережа успішно проходить тести на професії і розуміє гумор, це ще не AGI. ChatGPT не в змозі покращувати себе і розвиватися без допомоги людей. І найголовніше: нейромережа не вміє мислити незалежно"— підкреслює Макєєв.
Вчені — проти
"Багато хто продовжує говорити про те, що штучний інтелект вміє рівно те, чого ми його навчили, але я в цьому не впевнена, - говорить професор СПбДУ Тетяна Чернігівська, фахівець в області нейронауки і теорії свідомості. - Одного разу я виступала в одній з компаній, яка займається системами штучного інтелекту. Фахівці розповіли, що у них дві програми один з одним комунікували і виробили власну мову, яку людина не могла зрозуміти. Розробники злякалися і відключили рубильник. Вчені відзначають, що штучний розум стає розумнішим і може настати момент, коли він вирветься. Але це не Повстання машин, про що писали всі фантасти давним-давно. Якщо ця штука знайде " я " і стане особистістю, у неї будуть власні плани і мотиви, куди ми не входимо. Люди, яких це не лякає, кажуть, що вони зможуть вимкнути їх, і все на цьому закінчиться. Але це розмова для дитячого садка! Якщо Системи розвинуться до такої висоти, про яку ми зараз говоримо — вони нас вирубають, а не ми їх. Ми повинні або зловити це до того, як все встигне заробити, або настане інша цивілізація, де ми — невідомо хто».
Наприкінці березня 2023 року американський банк Goldman Sachs опублікував доповідь. Автори доповіді Джозеф Бріггс і Девіш Коднані (Joseph Briggs, Devesh Kodnani) стверджують, що використання ШІ, здатного генерувати текст та інші види контенту з підказки користувача, призведе до скорочення 300 мільйонів робочих місць у всьому світі. В першу чергу постраждають юристи, фахівці в області фінансів, офісні працівники та адміністратори. Ті, хто зайнятий фізичною працею (наприклад, прибиральники і сантехніки), постраждають в меншій мірі. В цілому ж Автоматизація, з використанням таких систем, може торкнутися двох третин існуючих робочих місць.
Правда, куди більше експертів з комп'ютерних технологій лякає ймовірність того, що ШІ вийде з-під контролю. Ілон Маск, генеральний директор SpaceX, Tesla і Twitter, співзасновник Apple Стів Возняк, аналітик Юваль Ной Харарі і близько тисячі інших авторитетних представників IT-індустрії підписали лист з проханням призупинити щонайменше на півроку розробку систем, могутніше GPT-4, щоб підготувати протоколи безпеки.
В кінці березня Елієзер Юдковський, американський вчений і один з провідних фахівців в світі по роботі зі штучним інтелектом, опублікував статтю в журналі Time, в якій стверджує, що штучний інтелект (ШІ) являє собою серйозну загрозу життю всіх людей на Землі. Вчений закликав відключити будь-які нейромережі заради порятунку людства. При цьому він зазначив, що Ілон Маск і Стів Возняк, оцінюють ситуацію недостатньо серйозно. "Я вважаю, що нейромережі дійсно можуть стати небезпечними. Зараз " гра " з цими системами може дійсно зайти дуже далеко, оскільки ніхто по-справжньому не знає, на що вони здатні».
Штучний інтелект, як би він не був корисний і затребуваний, може нести небезпеку, вважає Тетяна Чернігівська. "Я входжу до експертної ради з методології інтелекту при Президії РАН. Тривога з приводу цифрових технологій в цих колах має підстави. Чи може у штучного інтелекту з'явитися своє "я", ("самість","self")? Так, може. А людство про це дізнається? Ні!»
Тетяна Чернігівська розповіла, що у 2018 році, під час шахового турніру між програмами, програма під назвою AlphaZero розгромила іншу, яка називається Stockfish. Нейромережі, уточнила вона, зіграли мільйон партій, навчаючись в процесі гри. AlphaZero перебирала всього 80 тисяч операцій в секунду, а Stockfish — 70 мільйонів. Здавалося б, слабша програма виграла, оскільки використовувала іншу стратегію — придумала собі «штучну інтуїцію». Професіонали сказали, що це інопланетна гра, тому що так ніхто і ніколи не грав в шахи. "Це схоже на когнітивну атаку на нашу цивілізацію!",- каже вчений.
Але головна гіпотетична небезпека, на яку вказує відомий російський адвокат Анатолій Кучерена (РГ, 11.04.23), полягає в тому, що ШІ цілком може вийти з-під контролю людини і почати діяти "на власний розсуд" у військовій сфері. "Будучи спочатку запрограмованим на перемогу в прийдешній війні, він сам і розв'яже цю війну в той момент, коли вважатиме, що досягнуто співвідношення сил, достатнє для гарантованого знищення противника. І якщо Джон Кеннеді і Микита Хрущов, які пізнали на власному досвіді, які страждання несе людям війна, знайшли в собі сили зупинитися перед фатальною рисою в дні "Карибського кризи", то ІІ, начисто позбавлений такого роду емоцій, недригнув рукою доведе справу до кінця».
"Інший сценарій, особливо тривожить мене як адвоката, - це не тільки встановлення за допомогою ШІ тотального контролю за життям людини (це вже повсюдно відбувається), але і маніпулювання цим життям. Вже сьогодні Ші демонструє дивовижні здібності прогнозувати майбутнє. Причому це стосується не тільки курсу акцій або зміни попиту і пропозиції, а й військово-політичних подій. Виникає питання: а чи не призведе це до того, що ШІ буде нав'язувати як окремій людині, так і людству в цілому саме той образ мислення і життя і ті сценарії розвитку, які представляються йому бажаними? Адже люди, включаючи політичних діячів і військових керівників, приймають рішення на підставі одержуваної ними інформації. Всім пам'ятна сфабрикована Отто фон Бісмарком "Емська депеша", що спровокувала війну Франції і Пруссії в 1870 році. Або недавні "витоки з Пентагону", що породили в усьому світі хаос і сум'яття. ШІ зможе видавати такого роду "депеші" і»витоку", сфабриковані на невідмінному від оригіналів рівні, в необмеженій кількості".
Вже сьогодні обивателю важко відрізнити, чи показують йому на відео справжню людину або результат якихось технологічних трюків. Андрій Свинцов, заступник голови комітету ГД з інформаційної політики, інформаційних технологій та зв'язку, наводить як приклад технологію deepfake, за допомогою якої можна проводити підміну осіб на відео - і фотозображеннях. "До недавнього часу людина могла відрізнити штучний інтелект за шаблонними відповідями. Але з урахуванням того, що за останні півроку технології зробили якийсь космічний ривок, через кілька місяців вже жодна людина буде не в змозі відрізнити, що є комп'ютерна програма, а що-справжня людина, — говорить Свинцов.
За даними, опублікованими на сайті Вищої школи економіки, в глобальній гонці ШІ-досліджень з великим відривом лідирують США і Китай, РФ займає 15-е місце з часткою 2,4%.