Будущее искусственного интеллекта
По сути дела, термин "Искусственный Интеллект" придуман маркетологами для продвижения этого направления в сферу продаж.
Зарубежные СМИ пестрят материалами на эту тему. Например, СМИ ссылаясь на дебаты возомнивших себя Богами руководителей западных стран, бурно дискутируют тему о передаче т.н. "искусственному интеллекту" права на принятие решения о применении ядерного оружия[/b]!
Это-же додуматься надо, чтобы передать принятие решения БЫТЬ или НЕ БЫТЬ человеческой цивилизации наспех "обученной" какими-то программистами куче железа умеющей-лишь очень быстро сортировать и анализировать огромные массивы и потоки информации...
Сегодня существует лишь т.н. "Deep learning" - всего-навсего "глубокое обученине", а до реализации подобия интеллекта мы даже не приблизились....
Глубокое обучение — это метод машинного обучения, который учит компьютеры делать то, что естественно для людей: учиться на примере. Глубокое обучение — ключевая технология для беспилотных автомобилей, позволяющая им распознавать знак остановки или отличать пешехода от фонарного столба
Между тем, не проходит года, чтобы мы не услышали о тех или иных тяжелых происшествиях произошедших по вине ИИ. Да, в прессу просачивается не очень много информации о таких происшествиях. Но это отнюдь не означает, что их мало. Когда разработчику "искусственного интеллекта" задаешь вопрос, знает-ли он о множестве фактов грубейших и даже фатальных ошибок ИИ, следует примерно одинаковый ответ: " Для опасений нет оснований, ведь ИИ отнюдь не универсальный инструмент на все случаи жизни.
Он всегда рассчитан на решение конкретной задачи из конкретной области человеческой жизнедеятельности. Ему дают задание, предоставляют доступ к массиву примеров,
на которых он самостоятельно обучается. Но тогда, отвечаю я, это всего-лишь программно-аппаратная система, которая не может называться ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ!
Наиболее яркими примерами могут служить недавние события:
1.Случай произошедший с автомобилем ТЕСЛА управляемым Искусственным Интеллектом.
“«Взбесившаяся» Tesla Model Y в Китае стала причиной гибели двух человек — компания обещает содействовать расследованию”
https://3dnews.ru/1077298/tesla-model-y-poteryala-upravlenie-v-kitae-stav-prichinoy-gib...
2. Совсем недавно здесь появилась статья, фрагмент из которой я привожу: "К 2030 году 15–20% выручки будут обеспечивать покупатели-машины, то есть различные устройства интернета вещей, которые будут приобретать товары и заказывать услуги для своих хозяев, прогнозируют CEO американских компаний, участвовавшие в исследовании Gartner. Поскольку выручка лишь 500 крупнейших фирм США составляет $18 трлн, речь идет о триллионах долларов, которые будут зависеть от поведения алгоритмов.
Вопрос: А чьи программисты будут создавать эти алгоритмы?
Очень остро стоит поднятая видными учеными проблема контроля "Искусственного интеллекта"!
Суть проблемы, экзистенциального риска — угрозы гибели разумной жизни на Земле, состоит в том, чтобы создать искусственный "Искусственный интеллект", который будет полезен людям, и, при этом, избежать непреднамеренного, или злонамеренного создания сверхразума, который уничтожит человечество .