{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

«Консервируем» данные: модули pickle и dill

В процессе любой работы периодически возникает необходимость выгрузить обрабатываемую в программе информацию, для её хранения или дальнейшей передачи. При этом важно не утратить информацию или её часть, и быть уверенным, что тот кому файл будет передаваться сможет с ним работать. Подобный процесс и называется сериализацией данных.

Сериализация данных – это преобразование данных, обрабатываемых в программе (структур и объектов) в форматы, которые можно хранить и передавать. Задача состоит в том, чтобы можно было в дальнейшем воссоздать точную копию сохранённых данных, не утратив какую-либо информацию. В python есть разнообразные способы сделать это, некоторые их которых я, участник профессионального сообщества NTA Максим Милованов и приведу в этом посте.

Сериализация данных с помощью pickle

Рассмотрю для начала стандартную библиотеку pickle. Библиотека работает с двоичными потоками данных, как в файл, так и по сети. Открыв один поток можно последовательно добавлять в него данные, при этом повторное добавление данных не приводит к их задвоению в итоговом файле, так как модуль pickle хранит историю. В общем случае, сохранение и загрузка с использованием модуля pickle выглядит так:

import pickle with open('pickle_dump_ex', 'wb') as output_file: pickle.dump(data_to_save, output_file) with open('pickle_dump_ex', 'rb') as input_file: data_to_load = pickle.load(input _file)

Pickle позволяет сериализовать большое количество разнообразных объектов, используемых в python. Можно даже выполнять сериализацию пользовательских классов и функций, с тем нюансом что код функций или классов не сериализуется, а сериализуются только конкретные объекты и ссылки на функции. Это значит, что для успешного распаковывания объектов требуется исходный код.
Примечательно, что библиотека позволяет исполнять программный код при десериализации данных. Функционал библиотеки позволяет добавить в класс методы __getstate__, __setstate__, и __reduce__, который описывает поведение объекта при сериализации/десериализации. Поэтому очень важно знать, что в файле не содержится вредоносного кода. С другой стороны, это может быть удобным подспорьем если требуется, например, напомнить себе о том на каком этапе находилась обработка перед сохранением объекта. Выглядит это следующим образом:

class remind: counter = 0 def __reduce__(self): msg = 'currently on iteration ' + str(self.counter) return print, (msg,) new_reminder = remind() remind.counter = 10 with open('pickle_code_execution', 'wb') as f: pickle.dump(new_reminder, f)

При загрузке файла будет отображено следующее:

import pickle input_file = open('pickle_code_execution', 'rb' funct = pickle.load(input_file) Output: “currently on iteration 10”

Очевидно, что подобный функционал может привести к негативным последствиям, если в десериализуемом файле будет содержаться нежелательный исполняемый код.

В целом, для большинства типовых задач сериализации данных в python модуль pickle является более чем достаточным, однако у него есть ряд слабых сторон, для решения которых можно использовать другие подходы.

Альтернативные способы сериализации

Файлы, полученные с помощью pickle не подходят для использования вне python, но иногда такая необходимость возникает. К счастью, есть разнообразные форматы, поддержка которых присутствует во многих языках программирования, за счёт встроенных или доступных для дозагрузки библиотек. Два из таких, для сериализации в текст или в бинарный файл, мы сейчас и опишем.

JSON

В первую очередь, расскажу про сериализацию в формат json. Изначально разработанный для передачи данных по сети с использованием javascript, он получил широкое распространение, и сейчас поддерживается практически везде. Сформированные с его помощью файлы имеют структуру, которую можно прочитать просто открыв файл в блокноте, так как он просто хранит текстовые данные.
Основным недостатком для применения является ограниченный список поддерживаемых по умолчанию форматов данных: словари, списки, числа, строки, булевы переменные. Для всех остальных форматов потребуется предварительно перевести данные к одному из них. Но для поддерживаемых форматов (например, список) работа с форматом выглядит так:

сохранение:

with open('json_dump_ex', 'w') as filestream: json.dump(data_to_save, filestream)

и загрузка:

with open('json_dump_ex', 'r') as filestream: data_to_load = json.load(filestream)

Примечательно, что файл открывается не как поток байтов, а для чтения и записи текста, характерная особенность формата JSON. Полученный после этого файл можно без проблем передать в любую среду, что является сильной стороной подобных способов сериализации.

Msgpack

Другим примером универсальной сериализации является двоичный формат msgpack. Официально реализованный для богатого набора самых популярных языков программирования, он обеспечивает схожую с JSON кросс-платформенность, при этом авторы формата утверждают, что при его использованиии достигается большая скорость работы и меньший объём выходных файлов. При этом, просто открыть файл для редактирования уже не представляется возможным. По умолчанию он поддерживает те же форматы данных в python что и библиотека json, а простейший пример работы с ним выглядит следующим образом:

with open('msgpack_dump_ex', 'wb') as filestream: msgpack.dump(data_to_save, filestream)

и загрузка:

with open(' msgpack _dump_ex', 'rb') as filestream: data_to_load = msgpack.load(filestream)

Dill

С другой стороны, когда важнее расширение поддерживаемых типов данных для сериалиции, подходит модуль dill. С его помощью, например, можно сериализовать не только объекты класса, но и сам класс или функцию, открытые потоки подключения к файлам или к базам данных, и ряд других. Поддерживается даже сериализация в целом состояния ядра, что очень удобно поскольку одной командой позволяет сохранить всё, с чем в текущий момент работаешь, и так же легко полностью восстановить. Так как dill создан для того чтобы расширить возможности pickle, его простое использование не отличается от pickle:

with open('dill_dump_ex', 'wb') as output_file: dill.dump(data_to_save, output_file) with open('dill_dump_ex', 'rb') as input_file: data_to_load = dill.load(input _file)

Сохранение и загрузка текущего состояния ядра выполняется ещё проще:

dill.dump_session('dill_dump_session') dill.load_session('dill_dump_session')

Вот так, двумя простыми командами можно выгрузить и загрузить текущую работу, со всеми классами, функциями, переменными и даже открытыми потоками и подключениями.
Интересно, что dill используется вместо pickle в форке стандартной библиотеки multiprocessing под названием multiprocess, для передачи информации между потоками. Это позволяет, например, использовать одно подключение к базе данных, вместо того чтобы открывать его в каждом из потоков.
Расширенная поддержка форматов является очевидным преимуществом перед pickle, но dill не является стандартной библиотекой что может служить определённым ограничением при её использовании. Так же остаётся актуальным ограничение на работу только внутри python совместимых версий, и риск исполнения нежелательного кода при распаковке сериализованных файлов.

Пример результатов работы

Напоследок, сравним на простых примерах скорость работы представленных библиотек и размеры выходных файлов. В качестве объекта данных будет использоваться список чисел размером 1000000*20, а также numpy array аналогичного размера.

Заключение

Наглядно видно, что поведение алгоритмов сериализации сильно изменяется, в зависимости от того какие данные требуется сохранить, но, в целом, для json характерны наибольший размер выходного файла и значительное время работы. Если итоговый файл будет обрабатываться не в python, или версии python сильно отличаются, а читаемость файла человеком не требуется, выгоднее использовать msgpack. Ну а когда работа идёт только внутри python, модуль pickle показывает высокую эффективность практически в любом случае. Dill, ожидаемо, оказывается несколько медленнее, так как является надстройкой над pickle, расширяющей его функциональность. Дополнительные функции, и поддержка расширенного списка объектов, которые можно сериализовать, в определённых ситуациях будут приводить к замедлению в работе, но расширение списка поддерживаемых объектов вплоть до возможности сериализации всей сессии целиком делает его весьма удобным.

0
Комментарии
-3 комментариев
Раскрывать всегда