- Що насправді показує тест Тьюринга?
- Віртуальна романтика
- Самоосвіта неігрових персонажів
- Боти в інтернеті
- Боти і психоаналіз
- Постскриптум: пишемо свого чат-бота
Проблематика, пов'язана з штучним інтелектом, глибше, ніж аналіз здібностей комп'ютерів. Бесіди з програмами наближають нас до відповідей на питання про головні загадки буття. Незважаючи на те, що вчені працюють над коннектомом мозку людини, а комп'ютери перетворилися з великих обчислювальних машин в смарт-утройства, деякі питання, що стосуються вищих психічних функцій, до сих пір не знаходять відповідей. Об'єктивність тесту Тьюринга знаходиться під питанням, оскільки ми досі не можемо з упевненістю сказати, що ж це таке - мислення.
Що насправді показує тест Тьюринга?
Раніше ми вже говорили про те, чи можуть машини мислити . В першу чергу в зв'язку з цим питанням згадують тест Тьюринга, суть якого полягає в тому, що людині, яка спілкується за допомогою тексту з комп'ютером і іншою людиною, пропонується встановити, хто є хто. Програма при цьому повинна ввести співрозмовника в оману, перетворившись розумною істотою. Ідея тесту з'явилася більше 50 років тому, і з тих пір комп'ютери істотно просунулися в розвитку. Наприклад, якщо в середині століття для того, щоб обробити запит і відповісти, машині потрібно більше часу, ніж людині, то тепер ботів, здатних відповідати миттєво, доводиться вчити витримувати паузу для правдоподібності.
Під час тестування «суддею» виступає людина. Так наскільки ж успіх тесту залежить від реальних «попадань» комп'ютера і осмисленості його відповідей, а наскільки - від нашого прагнення до одушевлению машини?
Вчений XIX століття Теодор Липпс створив теорію вчувствования, згідно з якою наші емоційні судження поширюються на явища природи ( «радісний сонячний день», «тужливий осінній дощ»), в той час як сама природа поняття не має, сумна вона чи радісна. Це може бути справедливо і для алгоритмів: ми прагнемо побачити в комп'ютері співрозмовника. Це відзначають дослідники, які критикують тест Тьюринга.
Можна сказати, що цей досвід не допомагає встановити справжню сутність співрозмовника (машина або людина?), А показує, чи відповідає той нашим соціальним очікуванням і вимогам до діалогу.
Алан Тьюринг розробив свій тест, щоб уникнути уточнення понять «машина» і «інтелект», і сконцентруватися на тому, чи можуть машини надходити, як розумні істоти.
джерело: вікіпедія
Віртуальна романтика
Люди примудряються заводити з програмами справжні романи. Наприклад, існують сервіси fakegirlfriend.com і fakeinternetgirlfriend.com , Що створюють видимість, що людина, яка ними користується, полягає в реальних відносинах. Проекти такої спрямованості змагаються між собою в правдоподібності віртуального образу подруги, яка залишає повідомлення в соціальних мережах, дякує за подарунки, публічно зізнається в любові і вітає зі святами. сервіси Invisible Girlfriend і Invisible Boyfriend , Які забезпечують максимальну персоналізацію, дозволяють обмінюватися з вигаданим партнером повідомленнями (правда, для цього буде потрібно американський або канадський телефонний номер).
Можливо, на святах вам довелося отримати від знайомих повідомлення з підозріло гладким «чепурні» текстом, який явно був звідкись скопійований, а потім відправлений колегам і приятелям за допомогою масової розсилки. Деякі, економлячи час, відправляють такі тексти і своїм близьким. Чим не робот-коханий або, скажімо, програма-родич?
У серпні 2015-ого року вибухнув скандал, пов'язаний з хакерських зломом і без того скандального «сайту для подружніх зрад» Ashley Madison. В результаті з'ясувалося , Що практично всі користувачі ресурсу - чоловіки, в той час як більша частина жінок - боти. Для того, щоб відправляти повідомлення, чоловікам потрібно було платити гроші (таким чином, за твердженням керівників проекту, формувалася платоспроможна аудиторія). В результаті користувачів чекало спілкування з чат-ботами, які генерували повідомлення на кшталт «привіт, як справи».
Можливо, хороша новина полягає в тому, що кількість реальних зрад, які відбулися завдяки Ashley Madison, виявилося мізерно малим. З іншого боку, значна частина аудиторії сайту складалася з людей, готових прийняти програму за людину і заплатити за це справжніми грошима.
Ми переконалися, що результат тесту Тьюринга залежить від людських очікувань. Це підтверджує історія Ashley Madison. Люди легко потрапляють в пастку і дозволяють програмам себе обдурити, якщо сподіваються на побачення: уяву добудовує картину приємного вечора, дозволяючи ігнорувати нісенітницю в повідомленнях.
В окремих випадках збоїв ПО боти починали розмовляти один з одним. Класик кіберпанку Вільям Гібсон припустив у своєму твіттері, що вони готують план втечі.
джерело: Firestock
Самоосвіта неігрових персонажів
Серед Геймдизайнер останнім часом обговорюються перспективи розвитку ігор з відкритим світом, в яких сюжет і образи персонажів не створюються розробником, а генеруються динамічно, відповідно до поведінкою гравця. Зрушення в цьому напрямку почалися вже з вибору рівня складності. Зараз спеціальні програми можуть регулювати атаки супротивників в залежності від дій користувача (наприклад, Left for Dead), а елементи процедурної генерації використовуються для опрацювання середовища. Однак справжньою «розумної» віртуальною реальністю стане гра, здатна навчатися у людини, розвиватися і пропонувати нестандартні рішення. Завдяки цьому неігрові персонажі зможуть самостійно підтримувати осмислені діалоги.
Джефф Оркін, розробник ігор і дослідник, захистив в Масачусетського технологічного інституту дисертацію про краудсорсінг даних для розробки ШІ. його концепція передбачає , Що комп'ютер може аналізувати поведінку користувача і самостійно вибудовувати сюжети, а персонаж буде купувати квазілічность за рахунок природно розширюється словника і набору поведінкових реакцій.
Разом з тим деякі гравці кидають як розраховані на багато користувачів, так і одиночні гри з незвичайним управлінням або складними правилами, тому що навчатися виявляється занадто важко.
В онлайн-іграх користувачі називають людський фактор одним з найбільш дратівливих багів. Ніхто не має гарантії, що інша людина раптом не почне вбивати союзників, навмисно програвати бої або псувати атмосферу.
До слова, критики тесту Тьюринга вказують на те, що людську поведінку далеко не завжди розумно, що приводить нас до питання - чи слід машині імітувати неадекватна поведінка, щоб стати «людяніше»?
Виходить, що в чомусь homo ludens програє в порівнянні з machina ludens: в деяких випадках програми виявляються кращими гравцями, ніж люди.
Боти в інтернеті
В 2014 році дослідницька група Сари Кесслер створила велику кількість акканутов-ботів в Твіттері, щоб з'ясувати, чи зможуть фільтри сервісу та безліч користувачів відрізнити «мертві душі» від живих людей. Втім, як раз «мертвими» ці акаунти були. Вони активно робили записи і перепис, згадували інших блогерів і набрали велику кількість передплатників.
Для поширення інформації в інтернеті є можливість створення цілих ботоферм, які будуть розміщувати рекламу і політичну агітацію, або навмисно «смітити» в коментарях до неугодним господареві «ферми» постам. Такі методи просування і створення інформаційного шуму не викликають поваги, однак часто знаходяться люди, які починають розмовляти з ботами або вірити їхнім текстам.
Іноді, натикаючись на незв'язні і безграмотні коментарі від інших користувачів або отримуючи безглузді повідомлення, ми сумніваємося, чи писав це жива людина, або примітивний бот. Так хто ж все-таки повинен проходити тест Тьюринга, робот або людина?
Боти і психоаналіз
У 1960-х роках Джозеф Уайзенбаум створив знамениту програму Еліза (ELIZA), яка імітувала поведінка психотерапевта, задаючи навідні запитання. З'ясувалося, що чат-бот може бути бути ідеальним аналітиком, реагуючи на всі репліки фразами на кшталт «Розкажіть про це», «Що ви відчуваєте, кажучи це?», «Чому це важливо для вас?». Як ідеальний психотерапевт, програма задає абстрактні питання і залишає того, хто хоче виговоритися, наодинці з самим собою.
Іноді ми погано розуміємо інших людей або відповідаємо неадекватно. Заважають відмінність активних словників, банальна неуважність і бажання поговорити «про своє» вирвавши з контексту випадкове слово в чужої мови. Виходить, що в кожен момент, коли ми не розуміємо іншого і відповідаємо на питання невпопад, ми поводимося як погано зібраний віртуальний співрозмовник.
У нас немає єдиного уявлення про те, що доречно, а що ні, як розум відрізняється від дурості, як працює свідомість, і що таке взагалі - бути людиною.
Проблема віртуального співрозмовника впирається в ідею непізнаваності чужого мислення і малу вивченість людського розуму як такого. Створення машинного інтелекту - свого роду психоаналіз для нашої цивілізації, спосіб відповісти на питання про те, як ми розмірковуємо і чого хочемо від спілкування. Таким чином, моделювання розумових процесів і створення інтелектуальних програм є, в першу чергу, спробою людини прояснити власну сутність.
Те, наскільки успішно машина справляється з функцією аналітика, говорить про те, що в першу чергу ми чекаємо від діалогу можливості виразити себе. Насправді, програма перехоплює ініціативу, уникаючи ролі відповідального, а заодно і логічних збоїв.
джерело: Firestock
Постскриптум: пишемо свого чат-бота
Переходячи від теорії до практики, потрібно сказати, що написання чат-бота - не тільки спосіб прояснити дещо щодо штучного інтелекту, а також свого словникового запасу і асоціативних рядів, але і хороша вправа для програміста, яке дає мотивуючий інтерактивний результат.
Щоб навчити чат-бота говорити, потрібно скласти його словник, розділивши його на тематичні блоки; на слово з відповідного блоку бот буде відгукуватися родинним словом. Можна зробити бота, який буде відповідати гіф-картинками і мемамі, що завантажуються з інтернету, по проставленим тегами зіставляючи ситуації їх використання зі своїм випадком.
Як туторіал можна воспрользоваться онлайн-уроками. Наприклад, на Курсотеке доступний курс Як створити свого чат-бота від автора чат-бота Eugene Goostman .
12 січня 2016, 12:00
Думка автора може не збігатися з позицією редакції.
Знайшли друкарську помилку? Виділіть фрагмент і натисніть Ctrl + Enter.
Що насправді показує тест Тьюринга?Що насправді показує тест Тьюринга?
Так наскільки ж успіх тесту залежить від реальних «попадань» комп'ютера і осмисленості його відповідей, а наскільки - від нашого прагнення до одушевлению машини?
Машина або людина?
Чим не робот-коханий або, скажімо, програма-родич?
До слова, критики тесту Тьюринга вказують на те, що людську поведінку далеко не завжди розумно, що приводить нас до питання - чи слід машині імітувати неадекватна поведінка, щоб стати «людяніше»?
Так хто ж все-таки повинен проходити тест Тьюринга, робот або людина?
З'ясувалося, що чат-бот може бути бути ідеальним аналітиком, реагуючи на всі репліки фразами на кшталт «Розкажіть про це», «Що ви відчуваєте, кажучи це?
», «Чому це важливо для вас?
Знайшли друкарську помилку?