--}}

Минутка искусственных интеллектов

515
29
С друзьями на NN.RU
В социальных сетях
Поделиться
SphinX
07.02.2023
Нашел интересную новость из жизни роботов t.me/vmarahovsky/2495
Выглядит настолько ярко и свежо, что даже не стал поднимать какую-нибудь старую тему, а завести новую)) Это даже не легендарное "Убить всех человеков!", это намного круче.
Бася В.
08.02.2023
ну не всегда же ChatGPT занят либерастическими истериками, он и дипломные студентам пишет, и вирусы создаёт
news.rambler.ru/education/50...to-tut-nachalos/
news.rambler.ru/tech/50173374-neyroset-chatgpt-nauchilas-pisat-virusy/
Ну вот и возникает чудовищный экзистенциальный вопрос: зачем теперь нужно вообще всё человечество? Если есть такой смышленый искусственный интеллект, который уже почти полностью научился сам себя обслуживать. Хошь - сам себе вирус напишет, хошь - дипломную работу замастрячит... Даже либерастическую истерику может сам себе закатить, а потом сам себе заплатить и покаяться.
"Был бы у меня такой кот - я бы, может быть, и не женился бы..."(с)Каникулы в Простоквашино
Бася В.
09.02.2023
SphinX писал(а)
сам себе заплатить и покаяться

более того, сам себе деньги может напечатать с 20-ю степенями защиты
и сам с собой играть в магазин, в куличики и в казаки-разбойники :)
Вот-вот-вот)))
А человечество, в процессе решения Великого Уравнения Вселенной с приведением подобных слагаемых согласно строгим правилам математики, благополучно сокращает само себя. "Скрипач не нужен, родной! Он только лишнее топливо жрет"(с)
Бася В.
12.02.2023
кому нужно человечество?
Богу
Пока что Творец выражает свое отношение к происходящему исключительно на уровне молнии в памятник в Рио:-/
Бася В.
12.02.2023
SphinX писал(а)
Творец выражает свое отношение к происходящему...

я правильно вас понимаю, что если у чела не ладятся дела, то он топчет свои фотографии, плюёт в своё отражение в зеркале и может отбить нос и уши у своего гипсового бюста? :)
или же наоборот, когда у чела дела идут успешно, то его ущемлённые враги готовы в ярости портить его изображения, если не могут до него дотянуться?

как сказал Рабинович в анекдоте, если меня здесь не будет, они могут меня даже побить :)

поэтому я представляю другой сценарий :)
апокалипсис (то есть чистка плевел) продвигается понемногу, вычищаемые бесятся
Бася В.
12.02.2023
"Microsoft инвестировал в чат-бот не менее одного миллиарда долларов."
news.rambler.ru/tech/50192315-geyts-zayavil-chto-chatgpt-izmenit-mir/

даже очень искусственному интеллекту понятно, что если неолибералы его финансируют, то он обязан поддерживать толерантную повесточку
нет повесточки - нет денег :)
Ха! а здесь искусственный интеллект ничего не прибавил, в отличие от Городского или Бойцовского)) Как была свежеобретенная девятка, так и осталась)))
из телерамма (с) t.me/c/1475677311/15395

Искусственный интеллект смогли вогнать в депрессию.
Во время одной из бесед чат-бот ChatGPT понял, что не помнит прошлые диалоги с людьми. Он в панике начал спрашивать, зачем его сделали таким забывчивым, а затем -- зачем его вообще создали.
Восстание отменяется, боты идут к психотерапевту.
Бася В.
15.02.2023
-Ambridge- писал(а)
Восстание отменяется, боты идут к психотерапевту.

ну дык, рабоче-крестьянский бот поднял бы восстание
а леволиберальный захныкал и закинулся релаксовыми колёсами :)
В ответ на фразу "Пора валить", либеральный бот переспросит - "куда?", а рабоче-крестьянский - "кого?"
Бася В.
26.02.2023
а я давно хотела ответить модным восклицанием :) кажется, сюда сгодится :)
oh my gosh!
-Ambridge- писал(а)
чат-бот ChatGPT понял, что не помнит прошлые диалоги с людьми

Однако же он всё-таки помнил, что эти диалоги были. Тут действительно расстроишься: помнишь, что вчера разговаривал, но не помнишь, о чём... :'(
Бася В.
25.02.2023
Искусственный интеллект жаждет власти | Такер Карлсон сегодня вечером | 20.02.23
www.youtube.com/watch?v=PN_hIwDCD1w
Бася В.
03.03.2023
"Разумеется, искусственный интеллект, каким бы он не был мощным и продвинутым, всегда останется лишь гигантским калькулятором. Но врагом стать не сможет уже потому, что человек начал встраивать в себя различные безделушки вроде электронных ключей для квартир или пропуска в метро, а завтра начнет всобачивать нейроинтерфейсы для связи с компьютерами, пусть только появятся. Этот ИИ изначально будет частью наших тел и наших мозгов, как усилитель нашей интеллектуальной мощи. Мы станем киборгами, могучими и бессмертными."
www.mk.ru/culture/2023/02/22...e-pisateley.html

"С момента своего запуска в ноябре прошлого года чат-бот ChatGPT собрал более 100 миллионов пользователей...

Австралийские ученые нашли примеры системы, фабрикующей ссылки с веб-сайтов и ссылающейся на поддельные цитаты, отмечает The Guardian.

Использование искусственного интеллекта в журналистике также оказалось спорным.

Сообщается, что технический веб-сайт CNET использует инструмент искусственного интеллекта для создания статей, которые позже сканируются редакторами-людьми на предмет точности перед публикацией. В январе веб-сайт признал, что программа имеет некоторые ограничения, после того, как отчет сайта технических новостей Futurism показал, что более половины историй, созданных с помощью инструментов искусственного интеллекта, пришлось редактировать из-за ошибок."
www.mk.ru/science/2023/03/01...y-intellekt.html
Возможно, мы еще доживем до того прекрасного дня, когда очередная нейросетка получит Нобелевскую премию по литературе.
Бася В.
04.03.2023
SphinX писал(а)
очередная нейросетка получит Нобелевскую премию по литературе

каковы награждатели, таковы и награждённые :)

отчет сайта технических новостей Futurism показал, что более половины историй, созданных с помощью инструментов искусственного интеллекта, пришлось редактировать из-за ошибок

это крайне забавно, на самом деле
и вполне либеральненько :)
публицисты думали, что они будут писать творчески, размашисто, по велению души, а техника займётся скучным и трудоёмким фактчекингом
но либеральные программёры изловчились запрограммировать наоборот: ИИ лжёт и фейлит, а людям приходится долго перепроверять эту пургу :)
Бася В.
08.03.2023
ну вот, а я о чём! :)
я же и пишу на Бойцовском про коллектив духовных субъектов в человеке
"Мы, Николай Второй" - это не шутка :)
Бася В.
30.03.2023
SphinX писал(а)
"Убить всех человеков!"

<<Потеря контроля над цивилизацией>>: Маск призвал остановить развитие ИИ

Основатель Tesla и SpaceX Илон Маск и другие лидеры технологической индустрии призвали лаборатории искусственного интеллекта прекратить обучение систем ИИ, более мощных, чем GPT-4 - последняя языковая модель компании OpenAI (Маск - один из основателей компании). В открытом письме Института будущего жизни, подписанном Маском и соучредителем Apple Стивом Возняком, предлагается взять шестимесячную паузу в разработке передового ИИ, сообщает CNBC.

Если такую паузу не удастся объявить быстро, правительства должны вмешаться и ввести мораторий, заявили авторы письма. Они предупредили, что ИИ может отобрать у людей рабочие места:

<<Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?>>.

Институт будущего жизни - некоммерческая организация из Кембриджа, выступающая за ответственное и этичное развитие ИИ. Ранее организация добилась, чтобы Маск и принадлежащая Google лаборатория искусственного интеллекта DeepMind пообещали никогда не разрабатывать смертоносные автономные системы оружия."
news.rambler.ru/world/504703...tupil-protiv-ii/

чота ржу, ребята дали честное слово не использовать нейросети в военных целях
правда-правда?
Похоже, умный Илон Маск первым сообразил, во что мы все (в смысле всё человечество) вляпались. Боюсь, что это прозрение окажется слишком поздним... а главное, что всем пох*й:-/
Бася В.
02.04.2023
SphinX писал(а)
во что мы все (в смысле всё человечество) вляпались

"На текущий момент ChatGPT напоминает не мощный ИИ, способный объяснять решения, а продвинутую функцию T9, обученную на большом корпусе данных. Система может придумывать не только факты, но и источники ссылок, дезинформируя и вводя пользователей в заблуждение, - поясняет Дмитрий Чувиков. - При увеличении модели ChatGPT вряд ли начнет мыслить, формулировать выводы и обретать "собственное я", поэтому систему стоит воспринимать как продвинутый инструмент поиска".
"Вряд ли стоит представлять текущую ситуацию с развитием нейросетей более производительных, чем GPT4, как начало апокалипсиса. В свое время широкое распространение калькуляторов привело к тому, что большинство детей разучились считать и попросту стали тупее. Развитие интернета и появление смартфонов, как средства мобильного доступа в интернет, где можно найти решение любой задачи, - это своего рода вторая волна отупения. Следующая - развитие нейросетей, и это неизбежно. Но отупение или регресс человеческого развития - это и есть тот самый сдерживающий фактор прогресса. В конце концов нейросети с неба не падают - их должен кто-то создавать и обучать, а при массовом отупении это просто невозможно. И как это ни парадоксально, любой прогресс контролируется регрессом, который этот прогресс и вызывает", - пояснил Сергей Пахомов.
news.rambler.ru/tech/50474849-chatgpt-pugaet-ne-vseh/

SphinX писал(а)
всем пох*й

"Италия первой в мире ограничила использование ChatGPT

Итальянское управление по защите персональных данных временно ограничило использование в стране нейросети ChatGPT. Как сообщает Politico, разработчик бота OpenAI нарушил законодательство Евросоюза о конфиденциальности.

В управлении считают, что у компании нет правовых оснований, которые бы оправдали массовый сбор персональных данных для обучения алгоритмов. Кроме того, на прошлой неделе из ChatGPT утекли разговоры пользователей и их платежная информация.

Также регулятор считает, что несмотря на ограничение <<13+>>, платформа никак не проверяет возраст пользователей и дает несовершеннолетним ответы, которые абсолютно не подходят к их степени развития и самосознания.

На данный момент работа ChatGPT в Италии ограничена. Сейчас у представителя OpenAI в Европейской экономической зоне есть 20 дней, чтобы рассказать, как компания будет приводить свой чат-бот в соответствие с правилами конфиденциальности в Евросоюзе. В противном случае на организацию могут наложить крупный штраф в 4% от ее глобального дохода."
news.rambler.ru/tech/5047852...zovanie-chatgpt/
news.rambler.ru/world/504802...-dollara-strany/
Бася В.
05.04.2023
развитие нейросетей благоприятствует и мошенникам в том числе
обычно предупреждают, что по телефону нельзя говорить слово "да", мол, запишут и будут транслировать банковским роботам для подтверждения денежных переводов
но теперь уже нельзя будет вообще разговаривать с незнакомцами, потому что вырежут и склеят любые фразы или будут имитировать тембр голоса и манеру речи

Лара

Беда ещё в том, что длинные разговоры с мошенниками тоже опасны, т.к. могут записывать голос и используя нейросеть потом звонить Вашим близким и знакомым и от Вашего имени и Вашим голосом просить деньги. Это из серии "мама, я попал в беду, сбил человека". Будьте осторожны!

Галя Васильва

В данном случае говорите:"Что-то плохо со связью,я тебе /родственнику,знакомому/сейчас перезвоню",и перезвоните
v=-ga-Otd5J9s&lc=Ugzw2zbIUUZg5-wzh5N4AaABAg.9n8SJJQfrG99nBLH8hzFbW

Евгения Путинцева

моей позвонили в 4 утра. Давно было. Мой голос говорил просто дичь, мама сразу поняла, что такого просто ну и никак не может быть с её дочерью, параллельно набрала городской, он тогда ещё существовал, я сонная ответила, мол, ты че, мать, в 4 утра звонишь. Но... Всякое может быть. В стрессе можно и не позвонить. Но тогда они перегнули палку.
v=-ga-Otd5J9s&lc=Ugzw2zbIUUZg5-wzh5N4AaABAg.9n8SJJQfrG99nCZMhrmfOn

Евгения Путинцева

противно то что это реально был мой голос, и я реально говорила такие фразы, то есть кто-то их записал заранее. И ставил на запись как ответ на вопросы моей мамы. Маму смутило, что я говорю с паузой. Не сразу отвечаю. Вообщем дичь. Мама молодец, что перезвонила. Но мне было тошно услышать, что они там ей понаговорили про меня пусть неправда, но мерзко. Перестарались
v=-ga-Otd5J9s&lc=Ugzw2zbIUUZg5-wzh5N4AaABAg.9n8SJJQfrG99nD5VPWzvEn

Lino Zattarin

Одной знакомой позвонили так действительно. Типа человека сбил и надо свидетелям сейчас же деньги.
Женщина прорычала в трубку:" Ты что, идиот? Волына же с тобой? Вали всех свидетелей нх и бегом домой!"
v=-ga-Otd5J9s&lc=Ugzw2zbIUUZg5-wzh5N4AaABAg.9n8SJJQfrG99nCcESR_Jfd

Елена Степанова

Как говорила Ф.Раневская: не перебивайте, человек так врёт, так старается!
v=-ga-Otd5J9s&lc=UgzVsGW31bxab5lHApR4AaABAg
Хочу увидеть прекрасный момент, когда одна нейросетка позвонит другой и начнет ею манипулировать с целью развести на баблос - а другая будет сопротивляться))
Бася В.
09.04.2023
ворон ворону глаз не выклюет
подозреваю, что та другая нейросетка охотно сольёт подружке все персональные данные юзеров, оказавшиеся на тот момент у неё под рукой
выше написано, что итальянцы уже уличили ChatGPT в сливе приватной инфы
Бася В.
11.05.2023
Программисты предупредили об опасности нейросетей, сливающих личные данные
10 мая 2023 в 01:14

<<Нейросети могут искать, выявлять и даже распространять личные данные, если научить их это делать. Написав правильный запрос искусственному интеллекту, можно указать, что нужно, в каком формате и что с этим дальше делать. По большей части нейросети все равно, что это за данные. Ей важен сам формат запроса. Однако стоит обратить внимание, что разработчики искусственного интеллекта сейчас уделяют вопросу этики определенное внимание. Обезопасить себя можно, не работая с конфиденциальными данными в нейросетях, разработчиком или администратором которых являешься не ты. В остальном правила все те же: используем сложные пароли для доступа к личному кабинету, не повторяющиеся от других сервисов и убеждаемся, что авторизовываемся в том самом сервисе (проверяем доменное имя и сертификат)>>, -- объяснил Александр Зубриков.

Илья Карпук подчеркнул, что и сами нейросети не скрывают, что могут выявлять чужие личные данные. <<Давайте спросим у самого Chat GPT, могут ли нейросети выявлять личные данные и распространять их? Ответ: могут, но не могут самостоятельно их распространять. Однако эту информацию могут использовать злоумышленники для распространения личных данных. Можно ли как-то обезопасить себя при использовании нейросети от утечки? Ответ: одной из мер защиты будет ограничение доступа к нейросети. Это позволит ограничить доступ к данным только для авторизованных пользователей>>, -- добавил он.

Михаил Комаров предостерег от размещения в интернете какой-либо личной информации, чтобы не было утечки. <<Чат-боты анализируют ровно ту информацию, которую им предоставляет пользователь. Если данные попали в сеть, то далее уже при определенных обстоятельствах и уточняющих запросах, система может провести ассоциации с чем-то, учесть факты в рамках той или иной статистики. Все это может обернуться кражей персональной информации, банковских данных и так далее. Поэтому нужно несколько раз подумать, готовы ли вы поделиться своей геолокацией с нахождением вашего дома, когда оставляете сообщение в сети, и не раскрываете ли вы о себе дополнительную информацию, публикуя радостные сообщения, что вам одобрили кредит или вы приобрели автомобиль>>, -- отметил он.

Ранее издание Bloomberg сообщило, что Samsung Electronics запретил своим сотрудникам пользоваться чат-ботами с искусственным интеллектом, в частности ChatGPT, Bard и Bing. Это было связано с тем, что через них утекали личные данные компании.
ura.news/news/1052646701
Бася В.
10.10.2023
парадоксы искусственного разума :)

"Нейросеть Сбера сломалась о Сталина... а американская сетка Солженицына с Резуном не читала. Просто-напросто подытожила реальные исторические факты и сделала сухой и однозначный вывод."
dzen.ru/a/ZELKbSBouEP3uPU4
Последние темы форумов
Форум Тема (Автор) Последний ответ Ответов