{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Ошибки в выступлении на международной конференции по искусственному интеллекту 24.11.22

Темой выступления было развитие искусственного интеллекта в России. Что касается выступления президента - здесь все понятно, что есть общее понимание ситуации. Не услышал чего-то грубого или не верного, все достаточно обтекаемо и понятно почему - Надо разбираться в теме и уметь связать 2 слова, чтобы донести информацию до масс. Для этого выступили спикеры.

И как раз в последнем обнаружились, на мой взгляд, большие провалы. И, кстати, за 5 лет ничего нового не услышал.

Разберём по очереди выступления.

1 выступление было на тему раннего определения онко и сосудистых заболеваний.

Девушка рассказала о том что нейросеть обучалась на 1500 снимков и сразу вопрос - следующий спикер подтверждает, что без дата сетов и миллиардов вводных данных таким образом невозможно довести "до ума". Здесь стоило бы озвучить четко и конкретно "либо мы делаем такую нейросеть, которая способна обучиться на 1500 снимках (революционная, не существующая на сей день) или четко обозначить, что нужны данные со всего мира в больших количествах. Не озвучен самый критичный параметр - % точности определения. Какой толк?

Мое видение, как делать такую нейросеть:

- либо исходить из существующих схем обучения, отсутствия поставок нейрочипов и опираться на большие данные, которых нет;

- либо делать такие нейросети, которые будут обучаться кратно быстрее как по программному коду и взятой функции, так и по технологическому обеспечению (возвращаемся к чипам, которых нет);

2 спикер рассказывает о мощностях и суперкомпьютере для вычислений

Но почему-то делает это так, что складывается впечатление что не хватает только одних мощностей, а не понимания и опыта, как это работает.

Когда появился первый чип для хеширования майнинга биткоина, этот чип выполнял в 13млр больше вычислений в секунду чем видео карты, поэтому они мнговенно стали не эффективны. Делайте выводы, проводите параллели.

3 спикера в ввиду загруженности не удалось дослушать, думаю примерно тот же формат "мы пытаемся, но что-то ещё не понимаем ключевого, поэтому озвучиваем и готовы к критике"

Добавлю, что не было озвучено Революционного и крайне важного:

- нейросеть распространяется и обучается со скоростью света. Единожды затратив энергию, мы получаем готовую обученную нейросеть, распространение которой делается через "копировать" и "вставить", именно это ключевой фактор, почему затраты энергии и рентабельность не должны обсуждаться;

- нейросеть может "думать" по разному. Может думать "грубо", а может "мягко" , может давать примерный ответ, а может давать точный ответ. Может посоветоваться с другой сетью, зарубежной, а может сама с собой или с человеком. Может быть несколько нейросетей, может быть программная нейросеть в связке с физической сетью (кремниевым физическим чипом).

Здесь крайне важно, чтобы разработчик, делая свое дело, в процессе работы разрабатывал новые инновационные решения. И в TGM Technologies такие решения есть и развиваются. У нас налажен контакт с необходимыми гос. структурами, в которые могли бы обратиться. Однако, мы не готовы предоставлять информацию по проекту, поскольку высокий риск утечки технологии, поэтому предпочитаем развиваться самостоятельно.

Больше информации будем стараться публиковать в наши каналы. Подписывайтесь, чтобы не упустить важные комментарии по технологиям от TGM.

0
2 комментария
Nikolay Kenig

Как когда-то мне говорил один доктор техн наук. Мы традиционно еще не очень, не то что инновационно

Ответить
Развернуть ветку
Евгений

Да да

Ответить
Развернуть ветку
-1 комментариев
Раскрывать всегда