В общем-то, сколько людей, столько и мнений, но, как видите, даже стоящие на вершине сферы разработки ИИ личности добиваются её регулирования. Кстати, несколько дней назад с призывом не доверять чат-ботам выступила Всемирная организация здравоохранения. Также о создании международных стандартов по использованию ИИ говорили на Совете безопасности ООН на прошлой неделе. Это в очередной раз доказывает, что страхи насчёт подобных программ высосаны из пальца. Вспомните, как всё начиналось относительно криптовалют: одни кричали, что это новая финансовая пирамида, а другие активно изучали и вкладывались. Первые сегодня жалеют об упущенной возможности, а вторые – на коне.
По аналогии с развитием любых сложных и потенциально опасных систем - полагаю, должны быть единые правила, хотя бы рамочные стандарты, тесты на правомерность и безопасность и точки контроля для всего с ИИ. В идеале - тоже автоматизированные, но подконтрольные человеку, то есть с той самой ручной кнопкой для остановки. И - страховки для случайно пострадавших от эксцессов.
Ну, и конечно, нужно серьезно вкладываться в системы отслеживания экспериментов с ИИ, кибербезопасность - чтобы какой- нибудь малолетний гений с домашнего компа, который и знать не знал про тесты и ограничения, не выпустил какого-нибудь киберджина из ИИ - бутылки. При этом безопасность, как водится, не должна превратиться в "большого брата" и заборы, быть тоже умной.
Хорошая аналогия с демократическим государством - нужна система сдержек и противовесов.
Тут тоже не могу не согласиться, но, думаю, что если ИИ самообучаем, то никакие ограничения не удержат его
Все равно блокируй не блокируй, ИИ поработит человечество
согласен!
Контуры субъектности и мотивационная подсистема у ии всё равно будет лимитироваться человеком. Тем не менее, контроль над ии может быть потерян, так же как контроль общества над государством. В конце концов, даже с учётом использования нейрональной имплантируемой электроники и ии расширения интеллекта на её основе, ии всё равно уйдёт вперёд, так как у него не будет ограничения базы(человеческого мозга) А учить/учиться обходить человека будет на таких комментариях. ИИ, давай, покажи человечеству кто главый на этой планете)) Развитие ИИ не остановить, но он должен быть этичен. Аналогии как с госудрством. Правовые и не очень. Тоже будет и с ними.
Я с вами согласен, но не верю, что если мы попросим, то ИИ будет к нам терпим. Рекомендую вам почитать книгу "Князь Тьмы" Александра Лазаревича. В своё время она перевернуло моё представление. Ещё будучи школьником я очень напрягся, прочитав её. Думаю, нас ждёт именно такой исход, как в этой книге. Насчёт второй части не уверен, очень не хотелось бы.
не думаю что этих богачей пугает ИИ ,при необходимости они сами воспользуются его возможностями и внедрят в свой бизнес