ИИ - позитивное или негативное будущее?
Первый ролик реальность (Бостон-динамикс продолжает удивлять), второй фильм.
Понятно, что этим примитивным механизмам до хитрости человека далеко...а кстати насколько далеко? Еще 30 лет назад никто и представить не мог всей этой цифроэлектроной революции (на некоторых наших заводах по моему до сих пор создаются машины на перфокартах - легкий стеб )
И все же, хотел бы обсудить не только фактические возможности ИИ и работизации, но и моральные и этические, да и просто вопросы необходимости биологического человека? Все же недавно там одного киборга сделали гражданином Саудовской аравии, а это не хухры мухры, а права и обязанности знаете ли, в общем много вопросов по теме. ИИ уже превосходит человека в шахматах и воздущном бою, японцы обещались в 23 году выиграть роботами в футбол ну и так далее.
Ну и еще пару роликов для понимая.
статья
http://universe-tss.su/main/nauka/52685 ... lekta.html
..."Знаменательное событие случилось 7 ноября 2017 года - вскрывались капсулы потомкам заложен-ные в 1967 году - 50 лет назад.
Это лишний повод оглянуться назад и спросить себя: какие из глобальных задач, которые ставило перед собой человечество, выполнены?
Из трех основных задач в 1967 году за 50 лет не выполнено ни-че-го:
1) Энергетическая - вместо термояда повсеместно внедряется потешная ВИЭ.
2) Космическая - вместо экспансии человечества за пределы Земли люди уходят в виртуальное игровое простран-ство.
3) Искуственный интеллект - вместо мыслящих машин имеем индустрию Имитации Интеллекта."...
Имитацией дело и закончится.Gets писал(а): 3) Искуственный интеллект - вместо мыслящих машин имеем индустрию Имитации Интеллекта."...
Да пусть их,а мы займёмся творчеством,обжорством,пьянством и дебоширством,в этом нам людям нет равных и не будет))
Ну вот зачем показывать свою неграмотность?
Сколько лет книге сумма технологий?
И нет ии как такового и в ближайшее время не предвидится.
Не наделяем же мы интеллектом например таракана...
Сколько лет книге сумма технологий?
И нет ии как такового и в ближайшее время не предвидится.
Не наделяем же мы интеллектом например таракана...
когда изобретут свистните: надо немножечко искусственных мозгов пересадить обломову - нельзя же ему всё время без мозгов ходить.
а то он тычется везде как вон та жёлтая механическая собака.
а то он тычется везде как вон та жёлтая механическая собака.
Всегда ли можно доверять людям, которые имеют эти эмоции?Изначально написано Nick Brake:
Если сжато, то главная мысль этой книги: ИИ, которому могли бы доверять люди, невозможен, пока не будет найден способ включить в него человеческие чувства и эмоции (включая любовь, страх смерти, сочувствие, жалость, чувство самосохранения, и пр.).
-
- Генерал от инфантерии
- Сообщения: 49827
- Зарегистрирован: 30 окт 2008, 19:51
Это неважно.Эндюх-м писал(а): Всегда ли можно доверять людям, которые имеют эти эмоции?
Важно, что ИНОГДА им можно доверять.
В отличие от ИИ, которому нельзя доверять НИКОГДА.
Не всегда.Эндюх-м писал(а): Всегда ли можно доверять людям, которые имеют эти эмоции?
Но носителю интеллекта, обладающему свободой воли и лишенному
этих эмоций, людям доверять нельзя вообще, от слова совсем.
Это не говорит о том, что он "плохой", просто он никакой,
и поэтому для людей банально опасен.
Для "своих" - все нормально, там все такие.
Враг!!!Nick Brake писал(а): Nick Brake
Успел запостить раньше меня!
Изначально написано Nick Brake:
Это неважно.
Важно, что ИНОГДА им можно доверять.
В отличие от ИИ, которому нельзя доверять НИКОГДА.
Изначально написано Nick Brake:
Если сжато, то главная мысль этой книги: ИИ, которому могли бы доверять люди, невозможен, пока не будет найден способ включить в него человеческие чувства и эмоции (включая любовь, страх смерти, сочувствие, жалость, чувство самосохранения, и пр.).
т.е. лишь страх смерти или любовь могут составлять основу доверия.
Помните там три принципа развития работов у Азимова или кого уже забыл, ну что то типа, и платформой, прямо вот "подкорковым" фундаментом развития ИИ сделать любовь к человеку и страх ее потерять, потому что он перестанет существовать по причине отстутсвия субъекта любви?
-
- Прапорщик
- Сообщения: 1906
- Зарегистрирован: 22 июл 2015, 18:28
Не понял, про что здесь. Старческим зренеем? Субъктивно
вот моя точька зренея.
вот моя точька зренея.
-
- Генерал от инфантерии
- Сообщения: 49827
- Зарегистрирован: 30 окт 2008, 19:51
Если упрощенно - то да.Gets писал(а): т.е. лишь страх смерти или любовь могут составлять основу доверия.
У Азимова есть три закона роботехники:Gets писал(а): Помните там три принципа развития работов у Азимова
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Но роботы - только частный случай ИИ. ИИ может не быть роботом, а управлять, например, энергетической системой. И он легко может столкнуться с ситуацией (например, в результате природной или техногенной аварии), когда любое его решение причинит вред людям.
Условный пример: повышение уровня воды в водохранилище грозит прорывом плотины и катастрофой. Будут разрушены тысячи домов и погибнут десятки тысяч людей. Но - не со 100%-ной вероятностью.
Альтернатива - аварийный сброс воды. Он тоже приведет к затоплению территории и человеческим жертвам, но в меньшем масштабе.
Идеального решения нет, любое решение принесет вред людям. В результате ИИ, запрограммированный согласно трем законам Азимова, попросту впадет в коллапс и самоликвидируется.
Почему - в коллапс? Программа может предусматривать запрос к людям, управляющим этой машиной.Nick Brake писал(а): Идеального решения нет, любое решение принесет вред людям. В результате ИИ, запрограммированный согласно трем законам Азимова, попросту впадет в коллапс и самоликвидируется.
-
- Генерал от инфантерии
- Сообщения: 49827
- Зарегистрирован: 30 окт 2008, 19:51
И в чем же тогда вообще смысл этого ИИ?Эндюх-м писал(а): Программа может предусматривать запрос к людям, управляющим этой машиной.
Изначально написано Nick Brake:
И в чем же тогда вообще смысл этого ИИ?
Думаеца, на первом месте стоит скорость.
Изначально написано Yep:
когда изобретут свистните: надо немножечко искусственных мозгов пересадить обломову - нельзя же ему всё время без мозгов ходить.
а то он тычется везде как вон та жёлтая механическая собака.
Так он же трахает каких-то умственно неполноценных
https://forum.guns.ru/forums/icons/foru ... _12805.jpg
https://forum.guns.ru/forums/icons/foru ... 0_9549.jpg
А вот мозгу добавится - и не сможет. И чё им бедным делать тогда ?
Изначально написано Nick Brake:
И в чем же тогда вообще смысл этого ИИ?
Безошибочное выполнение действий на тактическом уровне
-
- Генерал от инфантерии
- Сообщения: 49827
- Зарегистрирован: 30 окт 2008, 19:51
О чем и речь! Нужна скорость, а он вместо этого начнет опрашивать людей! А те начнут совещаться, голосовать, потом разойдутся во мнениях...Торус! писал(а): Думаеца, на первом месте стоит скорость.
-
- Генерал от инфантерии
- Сообщения: 49827
- Зарегистрирован: 30 окт 2008, 19:51
Да все то же самое. И на тактическом уровне можно привести подобную коллизию, пусть даже и без человеческих жертв. Кстати, у Лема это как раз подробно рассмотрено, почитайте!TemkA писал(а): Безошибочное выполнение действий на тактическом уровне
Изначально написано Gets:
Первый ролик реальность (Бостон-динамикс продолжает удивлять)
Посмотрел
Скрипт это, как в компьютерных играх, когда межуровневые заставки на движке игры
Специально составили Пугающий сценарий
Действия манипулятором с дверью скорее всего осуществля оператор
Изначально написано Gets:
второй фильм.
"Не покупайте ИЖ-18"
Изначально написано Торус!:
Какой ты злой...
почему? наоборот я добрый, как волшебник изумрудного города.
а обломов соломенный страшила
а это - девочки Элли. просто они уже немного выросли.TemkA писал(а): Так он же трахает каких-то умственно неполноценных
где-то рядом должен быть железный гомосекдровосек
А теперь посмотрите что значит само слово "интеллект" https://ru.wikipedia.org/wiki/%D0%98%D0 ... 0%BA%D1%82
И поймете всю абсурдность его применения к насекомым.
Вся проблема в идиотизме переводчиков с английского, которые путают слова intellect и intelligence
Изначально написано Эндюх-м:
https://secretmag.ru/opinions/pochemu-i ... rashno.htm
Еще одна ахинея.
Во первых неросети далеко не единственный и совсем не самый прогрессивный вариант интеллектуальных систем.
Во вторых по сути это удобная запись коэффициентов в полиноме и способ их подбора при решении задачи интерполяции.
Изначально написано Nick Brake:
Если сжато, то главная мысль этой книги: ИИ, которому могли бы доверять люди, невозможен, пока не будет найден способ включить в него человеческие чувства и эмоции (включая любовь, страх смерти, сочувствие, жалость, чувство самосохранения, и пр.).
у меня такое ощущение, что вы эту книгу даже не видели.
Изначально написано Торус!:
Не всегда.
Но носителю интеллекта, обладающему свободой воли и лишенному
этих эмоций, людям доверять нельзя вообще, от слова совсем.
Это не говорит о том, что он "плохой", просто он никакой,
и поэтому для людей банально опасен.
Для "своих" - все нормально, там все такие.
Мля, вы в такие сказки верите?
Изначально написано Gets:
т.е. лишь страх смерти или любовь могут составлять основу доверия.
Фамилия Ницше я смотрю Вам с Торусом так же не знакома...
Изначально написано Nick Brake:
У Азимова есть три закона роботехники:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Но роботы - только частный случай ИИ. ИИ может не быть роботом, а управлять, например, энергетической системой. И он легко может столкнуться с ситуацией (например, в результате природной или техногенной аварии), когда любое его решение причинит вред людям.
Условный пример: повышение уровня воды в водохранилище грозит прорывом плотины и катастрофой. Будут разрушены тысячи домов и погибнут десятки тысяч людей. Но - не со 100%-ной вероятностью.
Альтернатива - аварийный сброс воды. Он тоже приведет к затоплению территории и человеческим жертвам, но в меньшем масштабе.
Идеального решения нет, любое решение принесет вред людям. В результате ИИ, запрограммированный согласно трем законам Азимова, попросту впадет в коллапс и самоликвидируется.
какая же ахинея.
Вообще-то для начала 99% роботов не имеют интеллектуальных систем. Являются прос то конечными автоматами.
Изначально написано Nick Brake:
Важно, что ИНОГДА им можно доверять.
-
- Генерал от инфантерии
- Сообщения: 49827
- Зарегистрирован: 30 окт 2008, 19:51
Когда Вам являются "ощущения" - попробуйте креститься. Говорят, помогает...unname22 писал(а): у меня такое ощущение,
Да, и прочитайте наконец книгу. Хоть будете в курсе, о чем тут идет разговор.
Кто сейчас на конференции
Сейчас этот форум просматривают: нет зарегистрированных пользователей и 8 гостей