Это не такая большая проблема. Просто не давайте железяке много философствовать на темы не касающихся работы, это практика успешно работает на людях сотни лет.
Кто ещё не слышал о Google A.I. Experiments, зайдите и просто поэкспериментируйте с этими самыми банальными возможностями ИИ от Google: https://aiexperiments.withgoogle.com/
(Рекомендую использовать ПК, для полного удобства работы приложений)
Эти экспериментальные приложения, как минимум, заставят вас задуматься о словах Маска. Если общедоступные экспериментальные приложения ИИ могут такие вещи, то что, интересно, они уже сегодня тестируют в своих секретных лабораториях?! А о недалёкой перспективе вообще страшно становится задуматься.
Нельзя просто игнорировать заявления такого технаря как Маск. Думаю он знает о чем говорит.
> Если общедоступные экспериментальные приложения ИИ могут такие вещи, то что, интересно, они уже сегодня тестируют в своих секретных лабораториях?! А о недалёкой перспективе вообще страшно становится задуматься.
Я одного не понял. Чего вы такого страшного по ссылке-то увидели?
Мне кажется, Вы путаете предсказуемость людей (их шаблонное мышление, стереотипы), которую действительно можно запрограммировать, и настоящий ИИ.
Был неприличный ролик про Google AI Draw, где автор все время рисовал кхм ну заборную тематику ... а Google опознавал это как огурец, то банан, то мост, утку, автомобиль ...
Нет ничего страшного, пока это просто математика, и она например делает маски в снэпчат. Другое дело когда у машины есть доступ к ресурсам города, например для обеспечения энергосбережения. Разумеется что в ближайшие 50 лет машины сами себя создавать не смогут. Но ёбнуть ракетой по Ирану из-за какого-то бага вполне возможно. ИИ это очень круто и необходимо для общества, но такие вещи необходимо контралировать. Хз зачем я эту тут пишу, всё-равно твой стартап не связан с ИИ же да?
1. "Спас мир от ядерной войны" в поиск - без ИИ, просто на глюке системы раннего предупреждения 26 сентября 1983 года могла бы начаться ядерная война. Должна была бы начаться, если бы 1 человек не потянул время (нарушив четкие и внятные инструкции).
2. Далее, между ИИ и "контролировать" есть несоответствие. В любом сложном программном продукте за год находят десятки (сотни) багов, их выявляют тестеры и пользователи, программисты правят старые багы и невольно вносят новые.
Если мы говорим о ИИ, который будет иметь доступ к своему исходному коду - то всё, приехали. А без этого доступа - он не совсем ИИ, так.
3. "ИИ это очень круто и необходимо для общества" Обоснуйте?
Современные программные системы невероятно сложны и точно так же подвержены ошибкам. Поэтому совершенно непонятно зачем нужно дополнительное регулирование специально под AI.
Все просто ребята. Цукерберг прав, и вот почему: 1) ИИ - искусственный интеллект. Свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека, эти свойства задаются человеком. Например был создан искусственный интеллект для конкретной задачи с конкретными свойствами игры в шахматы. Этот искусственный интеллект не сможет захватить мир и поработить человечество, по простой причине потому что ему не были заданны такие свойства, он умеет играть в шахматы и все. 2) У тех кто до сих пор не понял, может возникнуть вопрос, а что если сделать искусственный интеллект с заданными конкретными свойствами "Порабощения человечества" XD?? Ну тут все просто, такой искусственный интеллект сделать просто не возможно по не скольким причинам: 2.1 - Нужно создать саморазвивающийся искусственный интеллект во всех направления (которых будет более млрд). Играть в шахмоты это одно направление. Спускаться по ступенькам это второй направление итд.. 2.2 - Даже сеть самых мощных квантовых компьютеров в мире просто не сможет справится с потоком данных, по этому в ближайшее 300-3000 лет врятли появится саморазвивающийся ИИ. 2.3 - У ИИ не существует сознания которое присуще человеку и другим живым существам. У ии заданы конкретные свойства, например для игры в шахматы. Хоть я встал на сторону Цукерберга (или он на мою), все же маск поднимает тревогу не напрасно, и пытается привлечь правительство к этому вопросу для регулирования разработок в сфере ИИ. Плохие люди, могут изобрести ИИ в плохих целях, и вот это уже является проблемой. Сам же ИИ в ближайшие пару веков, угрозы точно не представляет.
Мне кажется вы несколько переоцениваете сложность создания саморазвивающегося интеллекта. Достаточно чтобы он хоть как-то научился понимать текст и расти, а дальше в его распоряжении для обучения доступен весь интернет и он очень быстро поумнеет.
для регулирования разработок в сфере ИИне-а, для гос. финансирования его организации "В 2015 году Маск вместе с сооснователем PayPal Питером Тилем, партнёром Y Combinator Сэмом Альтманом и другими инвесторами основали некоммерческую организацию OpenAI для исследования безопасного развития технологии ИИ. Инвестиции в создание организации составили $1 млрд. "
Да на здоровье - при массовом производстве технология беспилотных автомобилей будет стоит $99 и полдня в сервисе (на любой автомобиль после 1996 года).
Вопрос в том, что _отвечать_ за последствия их внедрения Маск не хочет (и никто не захочет).
То, в чём я принципиально согласен с Маском — это необходимость регулирования экономики связанной с AI. Чтобы не получилось так, что от развития технологий выигрывает небольшой круг людей, а менее удачливые стремительно беднеют, теряют работу и оказываются невостребованными в обществе.
Это — реальная проблема здесь и сейчас, особенно в Штатах.
1. Как предлагаете регулировать? 2. Деятельность Маска - проблема для аэрокосмической отрасли России (да и США, Китая и т.д.) и людей, работающей в ней. 3. Когда Маск, PR-щик новых технологий, привлекающий под них деньги инвесторов (основная работа последние годы), вдруг заделывается алармистом - нужно понимать почему ЕМУ это выгодно, и в чем ЕГО интерес 4. Его предыщущая деятельность не выявила особой социальной ответственности ...
Маск имел ввиду, что уже на данном этапе разработчики нейросетей (не путать с ИИ), часто сталкиваются с тем, что не знают, что происходит "под капотом" + избежание ситуации, когда такой мощный инструмент как искусственный интеллект будет сконцентрирован в руках одного государства.
Пожалуйста, уточните, почему Вы думаете что он именно это имел в виду. По ссылке https://vc.ru/n/musk-ai-threat цитаты из выступления от завиральных до неадекватных:
1. "Пока люди не видят роботов, убивающих людей на улицах, они не знают, как реагировать, потому что такой сценарий кажется нереалистичным"
2. "Глава SpaceX также признался, что его желание колонизировать Марс связано в том числе с угрозой порабощения Земли искусственным интеллектом. "
3. "развитие «глубокого ИИ», который окажется «умнее самого умного человека на планете», может привести к замене людей на искусственные алгоритмы."
И наконец амбула - "В 2015 году Маск вместе с сооснователем PayPal Питером Тилем, партнёром Y Combinator Сэмом Альтманом и другими инвесторами основали некоммерческую организацию OpenAI для исследования безопасного развития технологии ИИ. Инвестиции в создание организации составили $1 млрд."
Вот похоже что "изучать проблему" за чужие деньги, гораздо интереснее ему, чем развивать ИИ.
Переживать будет нужно, когда нейросети научаться сами себя конструировать и черпать информацию из внешнего мира. Вот здесь уже будет элемент непредсказуемости. Но пока до этого вычислительные мощности объективно не доросли.
В треде перепись тех, кто не понимает разницы между ИИ, который обучен делать узкую задачу (распознавание, синтез, и прочее) и ИИ который сам построит робота-убийцу и свергнет Человекаф.
А Вы поясните :) Классическая страшилка на эту тему - "Косильщик Лужаек" - где на базе человеческого мозга делают мощный ИИ - неплохо раскрывает второй сценарий, развившийся именно из первого - задача-то была изначально узкая, не так ли?
Просто сейчас ИИ на уровне: "Я как бы будильник поставлю, музыку включу, и еще твои слова загуглить могу". И мы на самом деле далеки от реализации настоящего ИИ. Когда я спокойно смогу сказать: "Нарисуй мне логотип/поправь баг в той библиотеки, что я вчера редактировал/введи капчу", после чего глянув код, там не было бы никакой заточенной работы под логотипы, скрипты/парсинг капч.
100% тест на ИИ (По Тьюрингу):
Вы в одной комнате, машина в другой.
Вы задаете вопрос и получаете ответ.
Если Вам не удалось понять кто отвечал на вопросы, человек или ИИ.
То поздравляю, вы из числа тех счастливчиков, которые разговаривали с искусственным интеллектом.
Тест Тьюринга от 1950 года не предусматривал компьютерной памяти, хранящей миллионы вариантов ответа. Извините, я процитирую себя же из другой ветки про ИИ "Тест Тьюринга ИИ может пройти в ближайшие годы, сойти за ребенка/тинейджера не требует много интеллекта (в ответах на вопросы, хватит пары тысяч вариантов ответа на любой вопрос).
Сойти в тесте за обидевшуюся женщину ИИ мог уже в 1950-м году - там требовалось просто молчать :)"
Матрица предполагает, что человек может быть батарейкой - т.е. выделять больше энергии, чем поглощать.
При этом не сообщает, какой именно энергии.
Поэтому я больше верю Терминатору - причем вместо развалин и т.д., просто будут идеальные экосистемы и много животных, растений, и т.д., компьютерное управление климатом и полное отсутствие людей - все проблемы от них, их 7.5 миллиарда ни один вид крупных млекопитающих никогда не достигал такой численности ... (как мне кажется).
ИИ это как паровой двигатель в свое время, технология которая переведет человечество на качественно новый уровень, вот только этот переход выдержат не все, многие страны исчезнут, волна безработицы поглотит планету, нею луддиты будут более массовым явлением чем раньше. Государства всех стран должны сделать максимум для, насколько это возможно, плавного перехода в новую экономическую реальность. Но кто будет сдерживать ИИ тот точно проиграет.
какие то абстрактные угрозы притянутые за уши, глобальное потепление, перенаселение и ужасная экология, и деятельность человека это уже здесь и сейчас.
Это не такая большая проблема. Просто не давайте железяке много философствовать на темы не касающихся работы, это практика успешно работает на людях сотни лет.
На солдатах хорошо работает.
Самая страшная опасность для любого солдата, любой армии – это не враг, а безделье
Кто ещё не слышал о Google A.I. Experiments, зайдите и просто поэкспериментируйте с этими самыми банальными возможностями ИИ от Google: https://aiexperiments.withgoogle.com/
(Рекомендую использовать ПК, для полного удобства работы приложений)
Эти экспериментальные приложения, как минимум, заставят вас задуматься о словах Маска. Если общедоступные экспериментальные приложения ИИ могут такие вещи, то что, интересно, они уже сегодня тестируют в своих секретных лабораториях?! А о недалёкой перспективе вообще страшно становится задуматься.
Нельзя просто игнорировать заявления такого технаря как Маск. Думаю он знает о чем говорит.
Вы путаете машинное обучение (по ссылке) с ИИ. Это разные вещи. Могу порекомендовать https://habrahabr.ru/company/kaspersky/blog/315326/
> Если общедоступные экспериментальные приложения ИИ могут такие вещи, то что, интересно, они уже сегодня тестируют в своих секретных лабораториях?! А о недалёкой перспективе вообще страшно становится задуматься.
Я одного не понял. Чего вы такого страшного по ссылке-то увидели?
Мне кажется, Вы путаете предсказуемость людей (их шаблонное мышление, стереотипы), которую действительно можно запрограммировать, и настоящий ИИ.
Был неприличный ролик про Google AI Draw, где автор все время рисовал кхм ну заборную тематику ... а Google опознавал это как огурец, то банан, то мост, утку, автомобиль ...
Ну он как бы не технарь, он программист (в прошлом) и бизнесмен - прежде всего PR-щик.
Надо им дебаты срочно устроить на первом или на дожде
Теперь ясно, кто мыслит глобально, а кто использует ML только для подсказок в рекламе :^)
Теперь ясно кто разрабатывает ИИ, а кто не успел забежать в вагон машиниста.
И что же такого глобального сказал Маск? :)
Комментарий недоступен
Нет ничего страшного, пока это просто математика, и она например делает маски в снэпчат. Другое дело когда у машины есть доступ к ресурсам города, например для обеспечения энергосбережения. Разумеется что в ближайшие 50 лет машины сами себя создавать не смогут. Но ёбнуть ракетой по Ирану из-за какого-то бага вполне возможно. ИИ это очень круто и необходимо для общества, но такие вещи необходимо контралировать. Хз зачем я эту тут пишу, всё-равно твой стартап не связан с ИИ же да?
1. "Спас мир от ядерной войны" в поиск - без ИИ, просто на глюке системы раннего предупреждения 26 сентября 1983 года могла бы начаться ядерная война. Должна была бы начаться, если бы 1 человек не потянул время (нарушив четкие и внятные инструкции).
2. Далее, между ИИ и "контролировать" есть несоответствие. В любом сложном программном продукте за год находят десятки (сотни) багов, их выявляют тестеры и пользователи, программисты правят старые багы и невольно вносят новые.
Если мы говорим о ИИ, который будет иметь доступ к своему исходному коду - то всё, приехали. А без этого доступа - он не совсем ИИ, так.
3. "ИИ это очень круто и необходимо для общества"
Обоснуйте?
Современные программные системы невероятно сложны и точно так же подвержены ошибкам. Поэтому совершенно непонятно зачем нужно дополнительное регулирование специально под AI.
Это каким сумасшедшим надо быть, чтобы давать доступ ИИ к запуску ракеты.
Все просто ребята. Цукерберг прав, и вот почему:
1) ИИ - искусственный интеллект. Свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека, эти свойства задаются человеком. Например был создан искусственный интеллект для конкретной задачи с конкретными свойствами игры в шахматы. Этот искусственный интеллект не сможет захватить мир и поработить человечество, по простой причине потому что ему не были заданны такие свойства, он умеет играть в шахматы и все.
2) У тех кто до сих пор не понял, может возникнуть вопрос, а что если сделать искусственный интеллект с заданными конкретными свойствами "Порабощения человечества" XD?? Ну тут все просто, такой искусственный интеллект сделать просто не возможно по не скольким причинам:
2.1 - Нужно создать саморазвивающийся искусственный интеллект во всех направления (которых будет более млрд). Играть в шахмоты это одно направление. Спускаться по ступенькам это второй направление итд..
2.2 - Даже сеть самых мощных квантовых компьютеров в мире просто не сможет справится с потоком данных, по этому в ближайшее 300-3000 лет врятли появится саморазвивающийся ИИ.
2.3 - У ИИ не существует сознания которое присуще человеку и другим живым существам. У ии заданы конкретные свойства, например для игры в шахматы.
Хоть я встал на сторону Цукерберга (или он на мою), все же маск поднимает тревогу не напрасно, и пытается привлечь правительство к этому вопросу для регулирования разработок в сфере ИИ. Плохие люди, могут изобрести ИИ в плохих целях, и вот это уже является проблемой. Сам же ИИ в ближайшие пару веков, угрозы точно не представляет.
Мне кажется вы несколько переоцениваете сложность создания саморазвивающегося интеллекта. Достаточно чтобы он хоть как-то научился понимать текст и расти, а дальше в его распоряжении для обучения доступен весь интернет и он очень быстро поумнеет.
для регулирования разработок в сфере ИИне-а, для гос. финансирования его организации
"В 2015 году Маск вместе с сооснователем PayPal Питером Тилем, партнёром Y Combinator Сэмом Альтманом и другими инвесторами основали некоммерческую организацию OpenAI для исследования безопасного развития технологии ИИ. Инвестиции в создание организации составили $1 млрд. "
Марк дело говорит. Пока что железо еле тянет информацию с датчиков одного автомобиля в реальном времени, а они уже панику разводят.
Хотя сам же Маск говорил про те же беспилотные автомобили, что разработать технологию проще, чем из чиновников разрешение выбить.
Да на здоровье - при массовом производстве технология беспилотных автомобилей будет стоит $99 и полдня в сервисе (на любой автомобиль после 1996 года).
Вопрос в том, что _отвечать_ за последствия их внедрения Маск не хочет (и никто не захочет).
То, в чём я принципиально согласен с Маском — это необходимость регулирования экономики связанной с AI. Чтобы не получилось так, что от развития технологий выигрывает небольшой круг людей, а менее удачливые стремительно беднеют, теряют работу и оказываются невостребованными в обществе.
Это — реальная проблема здесь и сейчас, особенно в Штатах.
1. Как предлагаете регулировать?
2. Деятельность Маска - проблема для аэрокосмической отрасли России (да и США, Китая и т.д.) и людей, работающей в ней.
3. Когда Маск, PR-щик новых технологий, привлекающий под них деньги инвесторов (основная работа последние годы), вдруг заделывается алармистом - нужно понимать почему ЕМУ это выгодно, и в чем ЕГО интерес
4. Его предыщущая деятельность не выявила особой социальной ответственности ...
Маск имел ввиду, что уже на данном этапе разработчики нейросетей (не путать с ИИ), часто сталкиваются с тем, что не знают, что происходит "под капотом" + избежание ситуации, когда такой мощный инструмент как искусственный интеллект будет сконцентрирован в руках одного государства.
Пожалуйста, уточните, почему Вы думаете что он именно это имел в виду.
По ссылке https://vc.ru/n/musk-ai-threat цитаты из выступления от завиральных до неадекватных:
1. "Пока люди не видят роботов, убивающих людей на улицах, они не знают, как реагировать, потому что такой сценарий кажется нереалистичным"
2. "Глава SpaceX также признался, что его желание колонизировать Марс связано в том числе с угрозой порабощения Земли искусственным интеллектом. "
3. "развитие «глубокого ИИ», который окажется «умнее самого умного человека на планете», может привести к замене людей на искусственные алгоритмы."
И наконец амбула - "В 2015 году Маск вместе с сооснователем PayPal Питером Тилем, партнёром Y Combinator Сэмом Альтманом и другими инвесторами основали некоммерческую организацию OpenAI для исследования безопасного развития технологии ИИ. Инвестиции в создание организации составили $1 млрд."
Вот похоже что "изучать проблему" за чужие деньги, гораздо интереснее ему, чем развивать ИИ.
Переживать будет нужно, когда нейросети научаться сами себя конструировать и черпать информацию из внешнего мира. Вот здесь уже будет элемент непредсказуемости. Но пока до этого вычислительные мощности объективно не доросли.
Еееее, даешь войну двух гениев!
Пиарятся, че им воевать...
В треде перепись тех, кто не понимает разницы между ИИ, который обучен делать узкую задачу (распознавание, синтез, и прочее) и ИИ который сам построит робота-убийцу и свергнет Человекаф.
А Вы поясните :)
Классическая страшилка на эту тему - "Косильщик Лужаек" - где на базе человеческого мозга делают мощный ИИ - неплохо раскрывает второй сценарий, развившийся именно из первого - задача-то была изначально узкая, не так ли?
Есть идея что решая какую-нибудь узкую задачу ИИ решит что человек этой задаче мешает. Топчет газоны, мусорит или еще что-то в этом духе. Почитайте на досуге:
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Там про это было написано если я не путаю ничего.
... а также в Гугле мне пообещали, что роботы будут использовать Facebook, после захвата мира"
Жду трансляции дебатов по данной теме ИИ (или OpenAI) Маска с ИИ Цукерберга
на сайте Навального
Просто сейчас ИИ на уровне: "Я как бы будильник поставлю, музыку включу, и еще твои слова загуглить могу". И мы на самом деле далеки от реализации настоящего ИИ. Когда я спокойно смогу сказать: "Нарисуй мне логотип/поправь баг в той библиотеки, что я вчера редактировал/введи капчу", после чего глянув код, там не было бы никакой заточенной работы под логотипы, скрипты/парсинг капч.
100% тест на ИИ (По Тьюрингу):
Вы в одной комнате, машина в другой.
Вы задаете вопрос и получаете ответ.
Если Вам не удалось понять кто отвечал на вопросы, человек или ИИ.
То поздравляю, вы из числа тех счастливчиков, которые разговаривали с искусственным интеллектом.
Тест Тьюринга от 1950 года не предусматривал компьютерной памяти, хранящей миллионы вариантов ответа.
Извините, я процитирую себя же из другой ветки про ИИ
"Тест Тьюринга ИИ может пройти в ближайшие годы, сойти за ребенка/тинейджера не требует много интеллекта (в ответах на вопросы, хватит пары тысяч вариантов ответа на любой вопрос).
Сойти в тесте за обидевшуюся женщину ИИ мог уже в 1950-м году - там требовалось просто молчать :)"
У меня тоже такие мысли, каждый раз когда пересматриваю Матрицу, но потом через день отпускает. Маску его никто не показывал в последнее время?
Матрица предполагает, что человек может быть батарейкой - т.е. выделять больше энергии, чем поглощать.
При этом не сообщает, какой именно энергии.
Поэтому я больше верю Терминатору - причем вместо развалин и т.д., просто будут идеальные экосистемы и много животных, растений, и т.д., компьютерное управление климатом и полное отсутствие людей - все проблемы от них, их 7.5 миллиарда ни один вид крупных млекопитающих никогда не достигал такой численности ... (как мне кажется).
По теме
ЕИ человека представляет для человека и его среды куда большую опасность и уже давно.
статья в тему
https://interpreted.d3.ru/perevod-revoliutsiia-iskusstvennogo-intellekta-684922/?sorting=rating
Ждем ответа Маска!
ИИ это как паровой двигатель в свое время, технология которая переведет человечество на качественно новый уровень, вот только этот переход выдержат не все, многие страны исчезнут, волна безработицы поглотит планету, нею луддиты будут более массовым явлением чем раньше.
Государства всех стран должны сделать максимум для, насколько это возможно, плавного перехода в новую экономическую реальность.
Но кто будет сдерживать ИИ тот точно проиграет.
Маск versus Цукерберг
Пошумим блеаааааааьь!
какие то абстрактные угрозы притянутые за уши, глобальное потепление, перенаселение и ужасная экология, и деятельность человека это уже здесь и сейчас.
Я за Маска