То есть мы хотим, чтобы сеть выполняла функцию идентификации. На самом деле, несмотря на то, что узкое место сокращает количество узлов с 64 до 16, реального сжатия не происходит. 64 исходных входа представляют собой 8-битные значения пикселей. Выходные данные скрытого уровня, однако, представляют собой десятичные значения от -1 до 1. Эти десятичные значения могут потребовать, возможно, бесконечного числа битов.
Простите, я дилетант в этом ai, но не могли бы вы дать линк или хотя бы название этого исследования от mit? возможно я пропустил нужное в попытках найти оригинальное исследование.
Еще вопрос, пожалуйста. То что вы описали - один из методов использования DL системы для компрессии, есть ведь и другие? Вообще то что я прочитал в вашей статье - есть вариация алгоритма сжатия JPEG которая использует так же квантизацию, преобразования функции Фурье в своей основе, но вместо брутфорса вычисления весов при восстановлении изображения - использует ML для восстановления значения из функции шума? Или я неправильно понял. Если правильно - в чем практический смысл данной реализации? Эффективность компрессии? В реализации HEVC - снижение размера финального файла при сохранении качества получается путем значительного увеличения объема вычислений как при кодировании так и при декодировании, насколько я понимаю.
ML решения для компрессии используются достаточно давно и реализованы в JPEG2000, HEVC стандартах, я не ошибаюсь? TensorFlow и OpenCV библиотеки так же используют данный алгоритм сжатия но с дополнительными этапами для повышения качества изображения (обработка краев, например)?
Если я ошибся во всем - пожалуйста не сочтите за труд уточнить где именно была допущена ошибка.
Шутка про пенисы из "Кремниевой Долины" уже была?)))
Картинки в статье специально зашакалены?
Заново изобрели колесо. А именно конвертация и сжатие)
Где-то рядом плачет недооцененный новым поколением алгоритм сингулярного разложения..
нет, только нейросеть модную подавайте!