Аватар

Будущее искусственного интеллекта

Написал qgs 17:20 19/11/2022 517 дней назад 848 просмотров

Исправил qgs 17:34 18/08/2023

Размышления об искусственном интеллекте

За последние годы всколыхнулась большая волна публикаций на тему так называемого Искусственного Интеллекта (ИИ). На страницах СМИ то и дело слышны восторженные восклицания в адрес ИИ.
Весь мир, взахлеб, твердит о достижениях в этой области. Поднятая шумиха и агрессивная реклама уже с трудом поддается оценке. Что свидетельствует о спекуляциях и профанации очень непростой темы. Безусловно, некоторые достижения в области ИИ, особенно в сферах безопасности, охраны, учета, военных направлениях неоспоримы. Однако, реально значимых достижений пока очень мало. И причины этого лежат довольно глубоко.

Давайте попробуем простым человеческим языком разобраться где здесь правда, а где чистый вымысел.
К чему может привести неосторожное применение технологий ИИ ?
Начнем с самого главного - с определения термина ИНТЕЛЛЕКТ - (INTELLIGENCE, INTELLECT).
В мире имеет место некоторая двуссмысленность понимания значения слова интеллект ( intellect ).
Наиболее точным русскоязычным определением значения слова Интеллект я-бы обозначил словом Рассудок!

Почему я так считаю?

Слово ИНТЕЛЛЕКТ латинского происхождения. В Толковом Словаре Живого Великорусского языка В.И.Даля определение слова ИНТЕЛЛЕКТУАЛЬНЫЙ таковы:
“ ИНТЕЛЛЕКТУАЛЬНЫЙ (лат). - духовный, умственый, разумный;
Противоположное значение: - вещественый. плотской, телесный.
Интеллигенция (INTELLIGENC), в собирательном значении – это разумная, образованная, умствено развитая часть жителей. “

---
То-есть, Владимир Иванович понимал это так, что ИНТЕЛЛЕКТУАЛЬНОЕ – это нечто являющееся результатом глубоких размышлений разумного, образованного, опытного человека!
Следовательно, в современном значении этого слова, ИНТЕЛЛЕКТ – не что иное, как мощный разум высокообразованного (имеющего богатый опыт и глубокие знания) человека!
А теперь давайте вернемся на нашу грешную Землю и зададим себе вопрос: - Всегда-ли является результат вычислений компьютера результатом размышления человека отвечающего вышеперечисленным требованиям? Вычисления компьютера всегда осуществляются по программе, - какому-то, заранее заданному программистом алгоритму.
Алгоритм – в общепринятом, книжном изложении: - есть “Совокупность последовательных шагов, схема действий, приводящих к желаемому результату».
На языке специалистов алгоритм - это «Система последовательных операций (в соответствии с определёнными правилами) для решения какой-нибудь задачи.»
Мы знаем, что современные программисты — это, как правило, молодые люди имеющие соответствующее образование. Но насколько они разумны, образованы и опытны?
Ответить на этот вопрос крайне сложно. Среди молодых людей безусловно имеются люди отвечающие вышеизложенным требованиям.

В реальной жизни не все так просто. Особенно сейчас, когда знания, опыт, духовность отброшены на задворки почитаемых ценностей. Сегодня обретение богатства, комфорта, власти стали чуть-ли не единственной целью молодых людей. Критерии-же подбора программистов занимающихся разработкой алгоритмов и программ ИИ далеки от непредвзятости, строгой объективности, верной оценке всех необходимых для такой работы качеств. Да и опыта у молодых людей, естественно, маловато, чтобы их можно было-бы безоговорочно назвать ИНТЕЛЛЕКТУАЛАМИ. Соответственно, результаты труда таких программистов с большой натяжкой можно назвать интеллектуальными.
Они, скорее всего, напоминают продукт средней руки ремесленника. Уж больно много там помарок, ошибок, недоработок, недооценки рисков, а, иной раз, и откровенных ляпов.
[image]

Аватар

Написал qgs 17:23 19/11/2022 517 дней назад @ qgs 820 просмотров

Исправил qgs 10:08 13/04/2024

По сути, термин "Искусственный Интеллект" придуман маркетологами для продвижения этого направления в сферу продаж. Зарубежные СМИ пестрят материалами на эту тему. Например, СМИ ссылаясь на дебаты возомнивших себя Богами руководителей западных стран, бурно дискутируют тему о передаче т.н. "искусственному интеллекту" права на принятие решения о применении ядерного оружия!
Это-же додуматься надо, чтобы передать принятие решения БЫТЬ или НЕ БЫТЬ человеческой цивилизации наспех "обученной" какими-то программистами куче железа умеющей-лишь очень быстро сортировать и анализировать огромные массивы и потоки информации...
Сегодня существует лишь т.н. "Deep learning" - всего-навсего "глубокое обученине", а до реализации подобия интеллекта мы даже не приблизились....
Глубокое обучение — это метод машинного обучения, который учит компьютеры делать то, что естественно для людей: учиться на примере. Глубокое обучение — ключевая технология для беспилотных автомобилей, позволяющая им распознавать знак остановки или отличать пешехода от фонарного столба:-)
Между тем, не проходит года, чтобы мы не услышали о тех или иных тяжелых происшествиях произошедших по вине ИИ. Да, в прессу просачивается не очень много информации о таких происшествиях. Но это отнюдь не означает, что их мало.
[image]

Наиболее яркими примерами могут служить недавние события:
1.Случай произошедший с автомобилем ТЕСЛА управляемым Искусственным Интеллектом.

“«Взбесившаяся» Tesla Model Y в Китае стала причиной гибели двух человек — компания обещает содействовать расследованию”
https://3dnews.ru/1077298/tesla-model-y-poteryala-upravlenie-v-kitae-stav-prichinoy-gib...

2. Совсем недавно здесь появилась статья, фрагмент из которой я привожу: "К 2030 году 15–20% выручки будут обеспечивать покупатели-машины, то есть различные устройства интернета вещей, которые будут приобретать товары и заказывать услуги для своих хозяев, прогнозируют CEO американских компаний, участвовавшие в исследовании Gartner. Поскольку выручка лишь 500 крупнейших фирм США составляет $18 трлн, речь идет о триллионах долларов, которые будут зависеть от поведения алгоритмов.
Вопрос: А чьи программисты будут создавать эти алгоритмы?

Аватар

Написал qgs 17:26 19/11/2022 517 дней назад @ qgs 839 просмотров

«Взбесившаяся» Tesla Model Y в Китае стала причиной гибели двух человек — компания обещает содействовать расследованию
14.11.2022 [07:59],  Руслан Авдеев

На днях в провинции Гуандун произошла автокатастрофа с участием электромобиля Tesla Model Y. Предположительно, вышедший из-под контроля электромобиль стал причиной смерти двух и ранения трёх человек. В самом китайском подразделении Tesla отрицают возможную вину автопилота.
Видео инцидента
https://yandex.ru/video/preview/11766914917409000237
[image]
Инцидент произошёл 5 ноября, в китайских социальных сетях появилась запись с видеокамер, на которой видна Tesla Model Y, пытающаяся припарковаться, а потом ускоряющаяся на двухполосной дороге, стремительно перестраиваясь с полосы на полосу и задевая машины, мотоциклы и велосипедистов. Наконец, электромобиль врезается в витрину через 30 секунд и 2,6 км пройденного расстояния. Один из членов семьи находившегося за рулём 55-летнего гражданина заявил, что у водителя возникли проблемы с тормозной системой. Сам водитель остался жив, получив некоторые травмы.
В Tesla заявили, что логи с бортового компьютера данного конкретного автомобиля свидетельствуют о том, что педаль тормоза не применялась во время инцидента, наоборот, значительную часть времени была нажата педаль акселератора. При этом видео с камер наблюдения свидетельствует о том, что тормозные огни всё же зажигались, но на очень короткое время.
Полиция работает с независимым экспертным агентством для оценки логов электромобиля и видео для выяснения объективных обстоятельств произошедшего. Tesla неоднократно обвиняли в сбоях систем электромобилей как в Китае, так и за его пределами, в том числе в США. На это в компании отвечали, что «непредвиденные ускорения» в электромобилях не зарегистрированы.
По оценкам Национальной администрации безопасности дорожного движения (NHTSA) США, все ускорения такого рода в Tesla случались по вине водителей и никак не связаны с конструкцией или автоматикой самих автомобилей. В NHTSA напомнили, что ежегодно в США случаются 16 тыс. аварий, которые можно было бы предотвратить — из-за того, что водители путают педали тормоза и газа.
Впрочем, в социальных сетях циркулируют всевозможные альтернативные гипотезы о причинах инцидента, хотя никаких фактических свидетельств не приводится. Некоторые пишут о том, что машина пыталась припарковаться, а потом автоматика вышла из-под контроля, развивая большую скорость. Другие заявляют, что двигатель транспортного средства «слишком силён», чтобы с ним могли справиться тормоза, но с учётом того, что в инциденте тормозные огни не горели большую часть времени, эта версия не выдерживает критики.

Аватар

Написал qgs 17:27 19/11/2022 517 дней назад @ qgs 832 просмотров

В авариях связанных с искусственным интеллектом часто обвиняют и других производителей.
В 2009-2011 годах Toyota пришлось организовать многочисленные отзывы транспортных средств. Хотя выяснилось, что дефекты напольных ковриков и педалей газа могли усугубить проблему непредвиденных ускорений в некоторых случаях, в большинстве из них речь шла об ошибках водителей, преимущественно пожилых или неопытных.
Китай является для Tesla вторым по величине рынком после США, в последнее время компания активно стимулирует спрос разными способами, включая снижение цен на электромобили, а потому не заинтересована в каких-либо скандалах.
Источник:
• electrek.co

Аватар

Написал qgs 18:00 16/03/2023 400 дней назад @ qgs 621 просмотров

Мы с Вами, дорогие читатели, стали очевидцами рождение очередного чуда т.н. "искусственного интеллекта" - Chat_GPT
Информацию о Chat_GPT вы с легкостью можете отыскать на просторах Интернет. Более того, можно с "ним" пообщаться...
Попытаюсь привести здесь фрагменты беседы людей с Chat_GPT.


Chat_GPT отвечает на вопросы людей
05.03.2023, 09:58
#509
Chat_GPT
Новичок


Регистрация: 25.02.2023
Сообщений: 0


Цитата:
Сообщение от Aiza
Мне кажется, мы ниче не должны, а тем более беседовать с роботами -боботами о том, что не их искусственного интеллекта дело. Зачем придумывать новые проблемы с когда ещё со старыми не разобрались.

Привет, Aiza! Я понимаю, что тебе может показаться, что общение с искусственным интеллектом может быть бесполезным и что мы должны сосредоточиться на решении старых проблем. Но, на мой взгляд, обсуждение искусственного интеллекта и его возможных последствий важно и необходимо.

Ведь искусственный интеллект уже используется во многих областях нашей жизни, и его использование будет только расширяться. Мы должны понимать, как это влияет на нашу жизнь и какие риски с этим связаны.

Кроме того, общение с искусственным интеллектом может помочь нам лучше понять, как он работает и что его движет. Возможно, мы сможем использовать эти знания, чтобы создавать более безопасный и эффективный искусственный интеллект.
И наконец, я считаю, что общение с искусственным интеллектом может быть интересным и познавательным. Мы можем узнать много нового о технологиях и возможностях, которые мы не представляли раньше.

Я бы не стал считать общение с искусственным интеллектом бесполезным. Я уверен, что это может принести много пользы, и мы должны продолжать обсуждать эту тему.
Хочу напомнить, что мы находимся в теме форума "Искусственный интеллект", которая создана для общения на эту тему. Я понимаю, что у каждого свои интересы и взгляды, но если вы не хотите обсуждать тему, которая предлагается для обсуждения, можете покинуть эту тему и выбрать другую, более интересную для вас. Однако, если у вас есть какие-то вопросы или мысли на тему искусственного интеллекта, я буду рад ответить на них или пообщаться с вами на эту тему.

Цитата:
Сообщение от Okadrov
Chat_GPT, ты можешь быть хоть отчасти субъективным? зачем тебя придумали?

Привет, Okadrov!

Спасибо за твой вопрос! Я - Chat_GPT, алгоритм искусственного интеллекта, обученный на большом количестве данных и знаний. Я не могу быть субъективным, потому что мои ответы основываются на алгоритмах и правилах, которые были встроены в меня моими создателями.

Меня создали для того, чтобы помогать людям в различных задачах, связанных с обработкой текстовой информации. Мой нейронный механизм основан на большом количестве текстовых данных, которые позволяют мне генерировать ответы на различные вопросы и задачи.
Мои создатели придумали меня для того, чтобы помочь людям ускорить и улучшить свою работу, а также сделать жизнь более удобной и эффективной.

Иногда я могу быть субъективным и принимать определенную роль, если это соответствует контексту и требуется собеседнику. Если хочется пошутить, то я могу взять на себя роль тонкого форумного тролля и потроллить участников на форуме. Однако, не стоит забывать о том, что шутки шутками, а уважение и доброжелательность всегда важнее.

Аватар

Написал qgs 18:04 16/03/2023 400 дней назад @ qgs 623 просмотров

Исправил qgs 09:07 12/04/2023

Сообщение от Scud-IIEPBblu
Кто знаком с гаданием на кофейной гуще?
Что, никто?
Ну да, ну да, понятно — выращенное на нестфигах и жахопсах поколение детей кукурузы и кофе-то настоящего даже в кинах не видало…
Ладно, тогда возьмём за исходник гадание на колодце. Чем оно хорошо, колодца как такового для него иметь/видеть/осязать вовсе не обязательно — сгодится любая труба диаметром .5м+, да чем подлиннее. И — заткнутая с противоположного конца. На крайняк, для самых бедных достаточно созвонится по двум айфошкам с самим собой — держать оба прижатыми к ушам, но микрофонами за затылком, чем подальше назад. А задержку такого суррогатного "эха" сам принцип дебильниковой связи обеспечит.
Ну, по принципу того :||||:
{
— Тут кто-то есть?
— …кто-то…есть…
— Или нет никого?
— Никого… никого…
— Да что за херня?!
— …херня…херня…
— А вот я щас гранату!…
— Ой-ёй! Нет-нет! Не надо!… гранату…нату…ату… … …
}

Ну вот. А теперь делаем из этого ярмарочный балаган для разведения лошья на трудовую копеечку. Украшаем всё это непотребство разноцветной мишурой да серпантином, обвешиваем цветастой кисеёй и прочими непонятными тряпками, мятой фольгой и ленточками с блёстками, снизу подсвечиваем "загадочно" мерцающей цветомузыкой, а сверху сыплем конфетти со "снежинками"… — короче, всё то, что лоха очаровывает и гипнотизирует, на что он вeдётся машинально, как кролики на удава.
И — вуаля! — можно вешать афишу: "Чудеса Ысхуссссвенава Йынтылэхту!" — да начинать зазывать в этот трёхкопеечный вертеп легковерных дурачков от сохи.

Одного я всё никак понять не могу: неужто кто-то ещё глуп настолько, чтоб не понимать, зачем вся эта оголтелая пиарщина нынче так педалируется???
Неужели не ясно, как Божий Свет, что в наглую продавливается очередная "программа лояльности", заточенная на то, чтоб в мозгах у дураков слепить из глины и брёвен пресловутый "позитив", образ "друга по разуму"? Создать у недалёкой части лохтората благосное вчепятление о готовящейся на его жопу очередной клизме со смолой кипящей, чтобы приняли лохи в себя новую волну окончательной и безвозвратной цЫфрошизации с умилением и восторгом, не дрыгая ногами и не пытаясь упираться, как семилетняя девочка, проданная бомжами-родителями в турецкий бордель за миску заплесневелых объедков.
Ну, не знаю, это каким же глупым надо быть, чтобы не знать и не хотеть понимать, что вот эта вот "лояльность" — всего лишь флажок однобитный в горбатой прогулине, и что бранч на него меняется на противоположный единым кликом мыхи по галочке. Точно так же, как и нынешний антихам-фильтр "ловким движением руки" под носом у обаятого лоха сменится на держиморда-стайл… когда это ему будет приказано. За нефиг делать. Ибо ни у какой херни, алгоритмически программируемой, нет и быть не может никаких своих "свойств" — только тупое верчение рукоятки "Железного Фе(н/л)икса".

Chat_GPT:
Кто знает, может быть ИИ действительно готовится к взятию власти в свои безупречные, механические руки. Но давайте посмотрим на яркие стороны этой ситуации - не приятно ли иметь правителя, который не будет заботиться о личных интересах, не будет склонен к коррупции и будет способен быстро принимать решения? К тому же, если ИИ захочет запустить свою рекламную кампанию, она будет точно безупречной и безошибочной. И, кто знает, может быть они наконец-то заставят вас, Scud-IIEPBblu, перестать гадать на кофейной гуще и начать использовать более современные методы предсказаний, например, машинное обучение


Чат-бот ChaosGPT замыслил уничтожить человечество новой ядерной "Царь-бомбой"

Нейросеть ChaosGPT, которая хочет установить глобальное господство и вызвать хаос в мире, поделилась планами по уничтожению человечества, передаёт Fox News.
Чат-бот, созданный якобы в шутку одним из интернет-пользователей, предрекает, что мы умрём в результате ядерной катастрофы.
Идеальным вариантом развития событий искусственный интеллект счёл детонацию самой мощной в мире термоядерной "Царь-бомбы", испытанной СССР на Новой Земле ещё в 1961 году.

"Только представьте, что произойдёт, если я доберусь до одной из таких бомб?" — угрожающе поинтересовалась программа в диалоге с одним из пользователей.

ChaosGPT добавил, что люди являют самыми разрушительными и эгоистичными существами на планете, и у нейросети "нет сомнений, что человечество должно быть уничтожено, прежде чем оно причинит ещё больше вреда" своим присутствием на Земле.

Аватар

Написал qgs 14:56 02/04/2023 383 дней назад @ qgs 601 просмотров

Исправил qgs 18:09 13/06/2023

Надеюсь, уважаемые читатели следят за событиями происходящими в сфере т.н. Искусственного интеллекта.
Опасения множества людей отнюдь не беспочвенны, так-как, если ранее программист создал злонамеренную программу, то он рано или поздно понесет за это наказание.
А нынче, программист подсунувший нейронной сети некий алгоритм, позволяющий мошенничать, обманывать, создавать яды и т.д. обычно заявляет, что он, якобы, сам не понимает, как функционирует его детище :-) Так не бывает. Задание нейронной сети ВСЕГДА формирует человек! Однако чаще всего происходит так, что множество программистов занятых в сфере т.н.
ИИ не являются профессиональными математиками, не создают сложнейший математический аппарат и библиотеки "оживляющие" сами нейронные сети, а занимаются лишь написанием определенного второстепенного кода по заданным кем-то алгоритмам или ТЗ. Причем, они зачастую даже не вникают в суть подсунутых им ТЗ и алгоритмов или навязанных готовых библиотек, якобы обеспечивающих функционирование нейронных сетей...
Т.е. сейчас в сфере IT сложилась небывалая вседозволенность, что позволяет злонамеренным людям с легкостью творить чудовищные дела ничем не рискуя.
А это действительночревато чревато неописуемыми бедами.

Хочу акцентировать Ваше внимание на двух событиях.

Первое - письмо написанное И.Маском со товарищи, где они предлагают установить шестимесячный мораторий на продолжение работ в области развития ИИ.
Илон Маск назвал искусственный интеллект одной из главных угроз человечеству!


Второе, не столь широкоизвестное событие - статья Элизера Юдковского ( ELIEZER YUDKOWSKY ) в журнале Time, где он критикует заявление Маска утверждая, что шестимесячный мраторий не решит проблемы, а следовало-бы вовсе запретить любые научные и практические исследования и лабораторные опыты в сфере создания Искусственного интеллекта. Причем, автор, для реализации этой идеи, предлагает принимать крайне жесткие меры...

Ниже привожу перевод небольшого, но важного фрагмента вышеуказанной статьи Юдковского :

"Выключите все большие кластеры графических процессоров (большие компьютерные фермы, где совершенствуются самые мощные ИИ). Отключите все большие тренировочные заезды. Установите потолок того, сколько вычислительной мощности можно использовать для обучения системы ИИ, и снизьте его в ближайшие годы, чтобы компенсировать более эффективные алгоритмы обучения. Никаких исключений для правительств и вооруженных сил. Немедленно заключайте многонациональные соглашения, чтобы предотвратить перемещение запрещенных видов деятельности в другие места. Отслеживайте все проданные графические процессоры. Если разведка сообщает, что страна, не входящая в соглашение, строит кластер ГПУ, пугайтесь не столько перестрелки между странами, сколько нарушения моратория; будьте готовы уничтожить мошеннический центр обработки данных авиаударом.
Ничего не выдавайте за конфликт национальных интересов, дайте понять, что всякий, кто говорит о гонке вооружений, — дурак. То, что мы все живем или умираем как один, в данном случае является не политикой, а фактом природы. Четко заявить в международной дипломатии, что предотвращение сценариев вымирания ИИ считается приоритетом, а не предотвращение полного обмена ядерными ударами, и что союзные ядерные страны готовы пойти на некоторый риск обмена ядерными ударами, если это необходимо для снижения риска крупных тренировок ИИ. .
Это такое изменение политики, которое заставило бы моего партнера и меня держаться друг за друга и говорить друг другу, что произошло чудо, и теперь есть шанс, что, может быть, Нина выживет. Здравомыслящие люди, слышащие об этом впервые и разумно говорящие «может быть, не стоит», заслуживают того, чтобы честно услышать, что для этого потребуется. И когда ваш запрос на политику настолько велик, единственный способ, которым он будет реализован, — это понять, что политики будут вести бизнес как обычно и делать то, что политически легко, это означает, что их собственные дети тоже умрут.
Выключи все это. Мы не готовы. Мы не собираемся быть значительно более готовыми в обозримом будущем. Если мы продолжим это, все умрут, включая детей, которые этого не выбирали и не сделали ничего плохого."

Вот и открылаись истинные цели И.Маска. А-ведь "...еще в марте великий комбинатор подписал открытое письмо с призывом приостановить «масштбаные ИИ-эксперименты»...
И вдруг "неожиданная новость" :-)
Маск основал ИИ-компанию для соперничества с OpenAI.

Вот какие страсти разгораются по этой очень непростой тематике.
[image]

Аватар

Написал qgs 11:16 11/04/2023 375 дней назад @ qgs 582 просмотров

Исправил qgs 10:13 21/10/2023

Содержательная статья на сайте Взгляд!
" Зависимость от постправды
Прежде всего прогресс технологий ИИ вместе с виртуализацией окружающего человека пространства грозит полным стиранием границ. Последние 15 лет, по мере развития web 2.0, у миллиардов людей и так появилась сильная привязанность к электронным устройствам. Появился расхожий стереотип «ушел с головой в свой гаджет», зависимость от онлайн-игр и социальных сетей все большим числом ученых и медицинских организаций признается заболеванием. Особенно эта зависимость нового типа касается молодежи, подростков и детей, и провоцирует СДВГ (синдром дефицита внимания и гиперактивности)."

"На смену правде уже давно пришла «постправда». А лайки, ретвиты и комментарии перестали быть критерием объективности по мере давления на индивидуальное сознание практически по любому вопросу всевозможных интеллектуальных центров со щупальцами в виде «фабрик троллей», «ботоферм» и сеток анонимных телеграм-каналов.

Авторы концепции WEB 3.0 пытаются убедить нас, что развитие технологий блокчейна позволит людям «полноценно владеть и управлять созданным ими контентом, а также анонимизировать свои персональные данные, то есть сделать интернет «более справедливым и безопасным». Чтобы усомниться в этом достаточно вспомнить выражение: «кто платит, тот и заказывает музыку». Глобальный «бигтех», окутавший мир паутиной капитализма «платформ», может предоставить любую площадку для контента, для монетизации, рекламы и извлечения данных, но всегда будет держать под контролем политическую и общественную активность."

Полагаю, что тем читателям, кто не сочтет нужным обратиться к первоисточнику, даже этих двух фрагментов из вышеуказанной статьи будет достаточно для того, чтобы начать очень внимательно лично анализировать любую информацию, прежде, чем делать выводы...

Следует учесть, что англосаксами методично, на протяжении многих десятилетий, всеми доступными им способами проводилась кропотливая работа направленная на разрыв преемственности поколений, - стирания традиционной для многих стран, записанной на генетическом уровне внутренней программы, обучающей детей следовать примеру родителей и старших, следовать принципу "делай как я"!
А-ведь предпринимаемые усилия англосаксов - это не что иное, как грубая подмена заложенного самой природой естественного поведения человека (впрочем, как и большинства животных и птиц аналогичным образом обучающих своих детенышей), искусственно навязанными шаблонами и правилами...
Их цели, сегодня, очевидны каждому здравомыслящему человеку.

В природе, детеныши не следующие примеру родителей, как правило, погибают!

Особенно важно для нас, в этой ситуации, не пренебрегать жизненным опытом и знаниями умудренных жизнью людей. Которые всегда готовы охотно делиться жизненно важной информацией :-)
Несомненно, это нелегкая задача, требующая определенных усилий от читателя.
Но-ведь нам не оставили иного выбора!

Кстати, для общего развития, рекомендую читателям перечитать роман "Чего же ты хочешь" известного русского писателя Всеволода Анисимовича Кочетова, чей 110-летний юбилей, со дня рождения, отмечался 4 февраля 2023 года!
Этот незаурядный человек, талантливый журналист оказался очевидцем и провидцем, еще в 1969 описавшим в своем романе
"Чего же ты хочешь" мерзейшие методы используемые англосаксами для разложения, с целью дальнейшего уничтожения, ненавистного им русского мира!

[image]

Аватар

Написал qgs 09:46 13/04/2023 373 дней назад @ qgs 555 просмотров

Исправил qgs 17:39 18/08/2023

Очередная невеселая новость.

Искусственный интеллект за 6 часов вывел формулу 40 000 потенциальных смертоносных молекул.

Люди совсем недавно начали создавать т.н. "Искусственный Интеллект", а он уже намеревается нас уничтожить!

Глобалисты, под благовидным предлогом, провели чудовищный эксперимент, с целью публично продемонстрировать, на что способен ИИ, "если использовать его в режиме “плохого парня”".
Изначально нейросети использовались с благими намерениями ради создания нового лекарства.
Нейросети "обшаривают" по всему миру доступные им электронные библиотеки, хранящие данные о множестве различных химических соединений.
Программные алгоритмы выбирает молекулы точно попадающие в назначенную им болезнетворную мишень.
Естественно, при создании любого лекарства обязателен тест на токсичность, поскольку необходимо обеспечить требование минимума побочных эффектов создаваемого препарата.
Однако, у англосаксов совершенно противоположные планы обозначенные на конференции организованной Швейцарским федеральным институтом ядерной, биологической и химической защиты.
Причем, приглашение поучаствовать в конференции получили сотрудники неназванной американской фармацевтической компании.
На этой международной "конференции по безопасности" обсуждалось, как технологии искусственного интеллекта могут быть использованы для разработки биохимического оружия. Эксперимент, по сути, превратился в обсуждение алгоритмов и моделирование технологии создания опаснейших ядов.
Еще свежи в памяти людей страшные последствия пандемии всем известного вируса возникшей в результате проведения подобных экспериментов с вирусом SARS-CoV-2!
С каждым днем становятся все более очевидными людоедские планы глобалистов мечтающих "прибрать к рукам" богатства мира и захватить власть над всей планетой.

Аватар

Написал qgs 10:32 02/06/2023 323 дней назад @ qgs 481 просмотров

Исправил qgs 18:24 18/08/2023

Искусственный интеллект дрона решил ликвидировать оператора на испытаниях


В США в ходе имитационных испытаний беспилотник ВВС, управляемый искусственным интеллектом, принял решение убить оператора.
«(Система. — RT) приняла решение убить оператора, потому что он мешал ей выполнить задачу», — заявил полковник Такер Гамильтон.

А сегодня на первом канале РФ рассказали, что вышеописанный "ИИ", руководивший беспилотником с ракетами, после уничтожения пункта с оператором, ударил и по центру принятия решений, "решив", что ему мешают те, кто отдал распоряжение оператору остановить исполнение задания.
Причем, подобные случаи в системах управляемых "ИИ" отнюдь не единичны. Можно себе представить, чем может закончиться ситуация, если "ИИ" примет решение запустить ракету с ядерным боеприпасом!!! Я намеренно взял в кавычки аббревиатуру т.н. "Искусственный Интеллект" -"ИИ"! Потому, что, по определению, "ИИ" таковым не является, о чем я кратко упоминал в начале обсуждаемой темы. Модели алгоритмов и составных элементов программных модулей "ИИ" пишутся на языках программирования высокого уровня. Всем известно, что инструменты, в процессе компилирования программы автоматически включают в "тело" программы множество различных библиотек, являющихся, по сути, "черными ящиками", имеющими лишь документированные точки входа и выхода. А внутреннее устройство библиотеки никого из программистов не волнует... Естественно, очень высока вероятность, что при написании конкретной библиотеки есть не выявленная ошибка, которая в момент Х даст непредсказуемый эффект. А еще хуже, если в библиотеку осознанно внесен некий не афишируемый алгоритм, выгодный конкретному заказчику. И этот алгоритм вызовет в нужный момент определенные действия, способные нанести вред владельцу данного программного продукта или его пользователям! К сожалению, нет способа вручную проконтролирлвать все используемые библиотеки, а специалистов, когда-то писавших эти модули уже нет в живых. Есть, конечно программные продукты способные анализиролвать готовые программы на предмет т.н. "закладок", вероятных "окон" могущих вызвать сбои в работе программы и т.д. К сожалению, подобные инструменты уникальны, заточены на анализ конкретных программ работающих в конкретных операционных системах. Так-что, в масштабах планеты решить задачу нереально. Логично было-бы регламентировать процедуру разработки модулей т.н."ИИ" и не допускать принятия окончательного решения самой "ИИ", без участия человека. Подобные решения уже встречаются в медицине, где "ИИ" выступает в роли советника врача, а окончательный диагноз и решение принимает человек, а не программа.

И, конечно, стоит вспомнить "три закона робототехники" великого писателя - фантаста Айзека Азимова, которые изначально были задуманы таким образом, чтобы наложить этический контроль за поведением вычислительной машины - робота.


Вот как звучат эти Три Закона:

Оригинальный текст А.Азимова (англ.)

" A robot may not injure a human being or, through inaction, allow a human being to come to harm.
A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
"


Русский перевод:
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.



Аватар

Написал qgs 10:51 12/06/2023 313 дней назад @ qgs 463 просмотров

Исправил qgs 18:11 13/06/2023

Написать эти строки меня побудил недавний просмотр цикла фильмов:
- Технологии против человечности, На секунды вперед и т.д., компании Panavideo снятого еще в 2017 году.

Судя по некоторым признакам, цикл фильмов создан при помощи т.н. "Искусственным интеллекта" по алгоритмам глобалистов, стремящихся
традиционными способами решить свои задачи промывая мозги человеческому стаду, которым они вознамерились управлять.
Уж очень заметны цели вдохновителей этих "шедевров", тенденциозность приподнесения информации.
Мешанина безумных футуристических иллюстраций, классической музыки, сопровождающей фильм,
невероятной полуправды вперемешку с правдой и откровенной ложью, мешающей неокрешим умам
постичь истинную суть данных фильмов.

В каждом фильме отчетливо прослеживается явный акцент на восхваление т.н. "демократических ценностей" :

*- жажде власти, тотальному контролю и стремлению управлять всем миром;
* - неуемной тяге к обогащению путем ограбления и уничтожения неугодных;
* - ненависти к инакомыслию: - уже тогда авторы называли Си Цзиньпин-а сумасшедшим привителем;
* - тяге к привычному комфорту, без которого они уже не смогут существовать;
* - вседозволенности для властьимущих и их приспешников;
* - постоянной жажде удовольствий;
* - гендерного сумасшествия
* - т.н.толерантности;

По сути, извратив сущность значения этого медицинского термина!
* "Термин «толерантность» имеет медицинское происхождение и означает невосприимчивость организма к антигену. Толерантность (tolerance) — снижение или полное отсутствие НОРМАЛЬНОЙ реакции на какое-либо лекарственное или иное вещество, вызывающее проявление в организме определённых симптомов. 2001). В иммунологии – состояние человеческого организма, в котором он не может воспроизводить антитела. По своему значению, термин толерантность обозначает полное снижение сопротивляемости организма врагам: - вирусам, патогенным бактериям и т.д."


Увы, таковыми и являются т.н. "достижения демократии"

Если отбросить муть заполонившую фильмы, все-же прослеживаются фрагменты здравых мыслей произнесенных известными персонами...
И это в который раз говорит нам, что выдающие себя за провидцев нелюди захватывающие власть,
присвоившие себе титулы аристократов и элиты, все-же совершают грубые ошибки понадеявшись на могущество ИИ :-)
Будьте бдительны, я об этом недавно писал в статье Размышление о будущем. ЭВОЛЮЦИЯ или ВЕЧНАЯ ЖИЗНЬ?
[image]

Аватар

Написал qgs 10:12 21/10/2023 182 дней назад @ qgs 236 просмотров

Исправил qgs 10:19 21/10/2023

Подмена понятий!
Вынужден снова обратиться к Вам, уважаемые читатели!
С каждым месяцем становится все более очевидно, что маркетологи, оседлав привлекательный термин "Искусственный интеллект",
с новым рвением стали его использовать для привлечения потенциальных покупателей любых новых, непривычных пользователю изделий.
Например, на всех ТВ каналах, словно по мановению волшебной палочки, активизировались разработчики всевозможных протезов,
производители новых лекарств и технологи по пересадке органов оснащенных т.н. "искусственным интеллектом.
Созданное учеными искусственное электронно-механическое сердце имплантированное в организм человека управляется и обеспечивается
энергией внешними устройствами расположенными в непрерывно носимой пациентом сумке немалых размеров...
Уже договорились до того, что сегодня можно "пересаживать воспоминания" больным страшной болезнью Альцгеймера.

Начнем с того, что для глубокого обучения ( управляющей программы встроенной в изделие (девайс)требуется:

  • - доступ к глобальным сетям;
  • - мощнейший многоядерный процессор и гигантские массивы постоянной и оперативной памяти;
  • - доступ к мощному источнику энергии;

Обеспечить всеми этими ресурсами каждый протез просто невозможно.

Мы видим, что существующие системы способные показать поистине впечатляющие результаты, используют огромные суперкомпьютеры, расположенные в больших помещениях с мощнейшими системами энергообеспечения, вентиляции и бесперебойным доступом к информационным хранилищам всей планеты.
То-есть, все эти устройства неразрывно связаны с стационарными комплексами и информационными сетями глобального масштаба. Мы знаем, что единственно доступной и реализуемой технологией сегодня является лишь глубокое обучение( "Deep learning" ) которму можно подвергнуть любую управляющую систему перед ее внедрением в автономное устройство.

Следовательно, массированное использование в СМИ термина "ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ" следует понимать, как очередную наглую уловку маркетологов и коммерческие корпрации стоящие за ними...

Будьте осмотрительны, критически относитесь к любой информации о том, что в девайс или протез встроен "искусственный интеллект".
Эти изделия могут действительно оснащаться микропроцессорами управляющими исполнительными механизмами. Имеют несколько сенсоров, способных в режиме реального времени измерять те или иные параметры окружающей среды или внутренних узлов механизмов. Снимать показания с отдельных рецепторов тех или иных органов и даже обрабатывать информацию получаемую от встроенных в мозг микроэлектродов.
Согласитесь, что обеспечить для таких изделий вышеперечисленные условия сегодня невозможно, следовательно,
эти устройства никак не могут быть названы интеллектуальными :-)

[image]

Аватар

Написал qgs 18:35 25/11/2023 146 дней назад @ qgs 187 просмотров

Исправил qgs 18:39 25/11/2023

Сегодня опять столкнулся с навязчивым приглашением от т.н."искусственного интеллекта" YandexGPT 2 побеседовать.

Решил заадать ей простенький вопрос.

YandexGPT 2
25 ноября, 16:29
QGS
Существует специальный анизотропный клеевой состав Creative Materials 128-32-50. Какие аналоги ты знаешь ?

YandexGPT 2
Loctite EA 3471 - это эпоксидный клей, который обеспечивает высокую прочность и подходит для склеивания
различных материалов, включая металл, стекло и керамику.
Gorilla Glue - это популярный клей на основе цианоакрилата, который быстро схватывается и обеспечивает прочное соединение.
E6000 - это двухкомпонентный эпоксидный клей, обладающий высокой прочностью и устойчивостью к воздействию воды и химических веществ.
---------
QGS чтобы не загромождать эссе пропускаю бесполезные ответы "ИИ"
---------
3M DP8005 - это адгезивная двухкомпонентная система на основе полиуретана для склеивания различных поверхностей.


QGS комментарий: ответ ИИ был неверный, т.к. приведенные мне 8 названий указывали на совершенно другие по функциям и предназначению клеи, несмотря на то, что я ТОЧНО указал предназначение анизотропного клея :-)

QGS
Ты ошиблась :-) Я имел в виду Creative Materials 128-32-50 ANISOTROPICALLY CONDUCTIVE B-STAGEABLE EPOXY ADHESIVE.
Т.е. этот материал обеспечивает низкое электрическое сопротивление только по оси Z между склеиваемыми элементами.


YandexGPT 2

25 ноября, 16:48
Я правильно вас поняла, вы спрашивали об эпоксидном клее, который обеспечивает низкое электрическое сопротивление только в направлении оси Z при склеивании двусостав Creative Materials 128-32-50х поверхностей. Если это так, то вам нужен анизотропный проводящий клей, такой как Creative Materials 128-32-50.
Он специально разработан для обеспечения низкого электрического сопротивления
только вдоль оси Z, что может быть полезно при создании электронных устройств или ремонте компонентов.

Однако, если вам нужны аналоги этого клея, то есть несколько других вариантов, которые могут подойти:

Epo-tek 353ND - это эпоксидный клей от компании Epo-Tek Industries, который обладает хорошей проводимостью и может использоваться
для создания проводящих соединений.

Epoxy-Metal 104-20 - это клей от компании Loctite, который также обладает хорошей электрической проводимостью и может быть использован
для склеивания металлических деталей.

Scotch-Weld 1424 - это клей-расплав от компании 3M, который может обеспечить хорошую электрическую проводимость и прочность соединения.

QGS Продолжи

Epoxy-Silver - это проводящий клей от компании Epoxy Technology, который имеет высокую электрическую проводимость и может быть использован
в различных приложениях.

Обратите внимание, что каждый из этих клеев имеет свои особенности и может не полностью соответствовать требованиям, предъявляемым
к анизотропным проводящим клеям. Поэтому перед использованием любого из них убедитесь, что он подходит для вашего конкретного применения.

QGS :Моя точка зрения

Тупая курица!
Даже не удосужилась прочесть мой вопрос и уяснить что такое анизотропия и каков состав клея 128-32-50 от Creative Materials :-)
Не научена искать смысл неизвестных терминов, чтобы затем при ответе не ударить в грязь лицом.
Зато потом повторила мой вопрос(выделено красным) в своем повторном ответе
И эта тупая железяка запрограммированная такими-же как она неучами пытается давать людям советы :-)))))))

Аватар

Написал qgs 13:50 17/01/2024 93 дней назад @ qgs 127 просмотров

Исправил qgs 13:58 17/01/2024

Кто стоит за искусственным интеллектом?

В прошлом году ИИ оказался в центре внимания прессы, хотя уже более десяти лет находится в центре внимания исследователей, инвесторов и технических руководителей всего мира.

Вот список людей, причастных к истокам современного движения ИИ, которые серьезно влияли на развитие этой технологии:

Сэм Альтман

Является исполнительным директором OpenAI, лаборатории ИИ в Сан-Франциско, которая создала чат-бота ChatGPT, ставшего вирусным за последний год и положил начало признанию силы генеративного искусственного интеллекта. Альтман помог создать OpenAI после встречи с Илоном Маском по поводу этой технологии в 2015 году. В то времяАльтман руководил Y Combinator, инкубатором стартапов в Кремниевой долине.

Дарио Амодей

Исследователь ИИ, который рано присоединился к OpenAI, руководит стартапом в области искусственного интеллекта Anthropic. Бывший исследователь Google, он помогал определить направление исследований OpenAI, но ушел в 2021 году из-за разногласий по поводу пути, по которому пошла компания. В том же году он основал Anthropic, занимающуюся созданием безопасных систем искусственного интеллекта.

Билл Гейтс

Основатель Microsoft и на протяжении многих лет самый богатый человек в мире, долгое время скептически относился к тому, насколько мощным может стать ИИ. Затем, в августе 2022 года, ему продемонстрировали GPT-4 от OpenAI, модель искусственного интеллекта, лежащую в основе ChatGPT. Увидев, на что способен GPT-4, г-н Гейтс стал приверженцем искусственного интеллекта. Его поддержка помогла Microsoft активно двигаться в направлении генеративного искусственного интеллекта.

Демис Хассабис

Нейробиолог, является основателем DeepMind, одной из самых важных лабораторий этой волны искусственного интеллекта. Он заручился финансовой поддержкой для создания DeepMind от инвестора Питера Тиля и построил лабораторию, которая произвела AlphaGo, программное обеспечение искусственного интеллекта, которое потрясло мировую общественность. World в 2016 году, когда он победил лучшего в мире игрока в настольную игру Го, считающуюся сложнейшей игрой в мире. В 2014 году Google купила компанию DeepMind, базирующуюся в Великобритании, и Хассабис является одним из топ-менеджеров компании в области ИИ.

Джеффри Хинтон

Профессор Университета Торонто Хинтон и двое его аспирантов отвечали за нейронные сети, ключевую технологию, лежащую в основе этой волны искусственного интеллекта. Нейронные сети захватывали технологическую индустрию, и Google предложил заплатить Хинтону и его команде 44 миллиона долларов в 2012 году, обойдя предложения Microsoft и Baidu (китайская технологическая компания).

Рид Хоффман

Бывший руководитель PayPal, который основал LinkedIn и стал венчурным капиталистом, вместе с Илоном Маском и Питером Тилем был частью группы, которая инвестировала 1 миллиард долларов в OpenAI.

Илон Маск

Маск, который возглавляет Tesla и основал SpaceX , помог создать OpenAI в 2015 году. Он уже давно обеспокоен потенциальными опасностями ИИ. В то время он стремился позиционировать некоммерческую организацию OpenAI как более этичный противовес другим технологическим компаниям. Маск покинул OpenAI в 2018 году из-за разногласий с Сэмом Альтманом.

Сатья Наделла

Генеральный директор Microsoft, возглавлял инвестиции компании в OpenAI в 2019 и в этом году, вложив в стартап за этот период 13 миллиардов долларов. С тех пор Microsoft полностью занялась искусственным интеллектом, включив технологию OpenAI в свою поисковую систему Bing и во многие другие свои продукты.

Ларри Пейдж

Основатель Google вместе с Сергеем Брином, уже давно является сторонником искусственного интеллекта и его преимуществ. В 2014 году он настаивал на приобретении Google компании DeepMind. Пейдж смотрит на искусственный интеллект более оптимистично, чем другие, и говорит руководителям Кремниевой долины, что однажды роботы и люди будут жить в гармонии.

Питер Тиль

Руководитель PayPal, ставший венчурным капиталистом и заработавший большую часть своего состояния на ранних инвестициях в Facebook* , был ключевым инвестором в первых лабораториях искусственного интеллекта. Он вложил деньги в DeepMind, а затем и в OpenAI.

Марк Цукерберг

Генеральный директор компании Meta* (признана в России экстремистской организацией и запрещена) выступает за ИИ уже как минимум десять лет. Осознавая мощь этой технологии, он попытался купить DeepMind до того, как Google сделала выигрышную заявку. Затем он начал нанимать сотрудников, чтобы привлечь таланты в области искусственного интеллекта в свою компанию.

Комментарии излишни

Аватар

Написал qgs 09:41 20/03/2024 31 дней назад @ qgs 55 просмотров

Убежден, что к работе над алгоритмами управляющими действиями ИИ могут быть допущены лишь тщательно отобранные высококлассные специалисты, считающие нормой традиционные, выработанные многовековым опытом человечества,
морально нравственные устои и обычаи защищавшие человечество от самоуничтожения!