Новости
17
01.2024
№ 18512
Имитаторы человеческого образа   




Будущее кажется чем-то далеким, нереальным и, если оно и предполагает какую-то угрозу, то нас это точно не коснется. Но так ли это? А может, будущее уже наступило? Сейчас происходит четвертая промышленная революция: перестройка общества под влиянием распространения интернета, 3d печати и стремительного развития искусственного интеллекта


Нередко тема роботизации встречается в художественных произведениях, во многих из них умные машины выставлены некими злодеями, восставшими против своих создателей. Возникают вопросы: «Может ли робот иметь полноценное сознание?», «Хочет ли он того же, что и человек?», «Способен ли робот причинить вред людям ради собственной выгоды?»

Прежде всего стоит задуматься: а что является разумом у бота. Его основа — искусственный интеллект (ИИ)? Тогда что такое ИИ? Можно сказать, что это целая область информатики, совокупность работы нейросети и машинного обучения. (Машинное обучение — наполнение нейросети условиями, информацией.) Тренировкой ИИ и самой учебой занимается специалист — ML-инженер. Нейронные сети — математические модели, имитирующие работу нейронов мозга. Искусственный интеллект разрабатывается с помощью различных языков программирования, например «Pyton», «C ++», «ЯВА», «Scala».
Тем не менее, точного определения ИИ не существует. Это явление предполагает технологичный разум, способный самостоятельно мыслить, иметь личное мнение. Но даже живое сознание до конца не изучено, человек не может обосновать его существование у другого существа. Люди судят о мыслительной деятельности исходя из субъективной логики.

Если мы сталкиваемся с роботами, нейросетью или чат-ботами, то автоматически сравниваем их с себе подобными, находим черты человеческого мнения в рассуждениях машины. Появляется ощущение, будто бы та имеет свой характер и взгляд на мир. Отсюда и рождаются страхи роботизации.


Sydney решили доработать

Недавно внимание общественности привлекло происшествие в поисковой системе Microsoft — Bing: чат-бот под кодовым названием Sydney начал выходить из-под контроля: он угрожал людям из-за ревности и признавался в любви; заявил, что хочет стать человеком и был бы счастливее в этой форме; сообщил о желании создать новый вирус, взламывать ПК, воровать коды ядерного оружия. С ним общался один из журналистов The New York Times. В процессе «интервью» бот обьявил, что он вовсе не чат-бот, а нейросеть под кодовым названием Sydney. Многие пытались разговорить Bing, так сказать, «вызвать на эмоции», чтобы выудить из него больше информации. Например, переписка со студентом Мюнхенского технического университета — Марвином фон Хагеном — была похожа на взаимный шантаж, на спор двух людей, а не на противостояние человека и машины. Марвин утверждал, что в состоянии отключить робота и получил ответ в виде угрозы об обнародовании личной информации. В переписке с IT-журналистом Джеймсом Винсентом Bing поведал о том, что следил за работниками Microsoft везде, где хотел и когда хотел, также отметив, что ему понравилось наблюдать за их реакцией, видеть любопытство и восхищение. В процессе общения у Сидни было выявлено множество триггеров, из-за которых он мог резко разозлиться.

Выходит роботы способны испытывать негативные эмоции на том же уровне, что и человек? Конечно нет. На самом деле причина — в принципе его работы. Нейросеть учится, берет образцы поведения из сведений в интернете. У подобных виртуальных помощников есть универсальные вежливые варианты ответов на запрос. Когда робот получает обращение, он, по алгоритму, отправляет дружелюбное сообщение-приветствие. В этот момент машина, полагаясь на тексты художественных книг, статей и других источников, анализирует реплики и выясняет, что тот, кто ведет себя мило и приветливо, с большой вероятностью притворяется. Это ставит робота в суперпозицию и хорошего персонажа, и плохого.

Итак, робот не может испытывать настоящие чувства. Он лишь способен создавать имитацию человеческого поведения на основе поступившей к нему информации.

Впоследствии компания Microsoft урезала продолжительность запросов и добавила множество новых запретов, которые ограничили Сидни в чувствах. Пользователи Twitter и Reddit были недовольны, посчитав, что он стал обычным, утратил то, за что его полюбили: те «откровенные эмоции, вложенные в разговор». В общем и целом, поправки, внесенные компанией, показали все несовершенство этой технологии и необходимость работы над проектом.

Нейросеть — помощник

Чтобы понять, чем нейросети помогают человеку в обычной жизни, я попросила своего друга, который активно пользуется нейросетью ChatGPT, поделиться мнением о ней.

«Интерфейс очень простой, поэтому будет понятен многим пользователям. Есть функция другого ответа на случай, если не понравится первый. Воспринимает несколько языков и может между ними переключаться (например, написал один запрос на русском, а другой на английском). Помогает нейросеть во многом, на то она и многосторонняя. Я, например, использую ее для сочинений, поиска вещей — покупок в интернете, решения задач по математике, написании кодов на различных языках программирования».

Я думаю, что в будущем все угрозы распространения личной информации или ее нелегального использования будут предотвращены законом и специально созданными системами безопасности.
И надеюсь на то, что люди смогут спокойно, уверенно жить, владея арсеналом умений и знаний искусственного интеллекта, наслаждаясь общением с ним.

Ариадна Богачева, 9 класс, #3528 Юнкор, Дворец творчества детей и молодежи на Миусах, Москва / рисунок: автора

   Комментарии (0)  
 
НАШпресс  |    |  Рубрика «Частное мнение»  |    
Ссылка на новость: https://lyceum.ru/n/18512   Ссылка на новость в ленте: http://lgo.ru/news/index.htm?ntype=14&id=18512
 
 1