Функционирование виртуальных сетей обеспечивается различными технологиями, которые я бегло опишу:
bridges — сетевые мосты — программные аналоги свичей, позволяют соединить вместе несколько сетевых интерфейсов и передавать между ними пакеты, как если бы они были включены в один свич. Бриджи управляются с помощью команды brctl:
Перед работой с бриджами лучше ознакомиться с документацией, они содержат некоторое количество нетривиальных моментов.
tun (tap) — виртуальные сетевые интерфейсы. В отличии от аппаратных привязаны к определенному процессу пользовательского режима, а не к сетевой карте. Родительский процесс может писать/читать данные из виртуального интерфейса имитируя работу сети. В остальном они не отличаются от обычных интерфейсов. С помощью tun/tap работают многие VNP программы, например openvpn, которая создает tun/tap, вычитывает из него данные, шифрует и переправляет по обычной сети на другой компьютер, где второй процесс openvpn принимает данные, расшифровывает и записывает в свой tun/tap, имитируя прямое сетевое соединение между удаленными компьютерами. Как и 95% всех сетевых возможностей linux tun/tap можно управлять с помошью утилиты ip. Пример использования tun из python можно найти тут kharkovpromenade. Tun используются для создания сетевых интерфейсов виртуальынх машин.
iptables — система управления сетевым трафиком в linux. Обеспечивает фильтрация и модификацию трафика, управление сетевыми соединениями, etc. Возможности iptables чрезвычайно обширные и описывать даже примерно я их не буду, приведу только команды, позволяющие увидеть все правила на компьютере:
Все правила легко читаются даже без знания iptables.
Ок, с этим багажом уже можно разбираться с виртуальными сетями. Для большинства случаев нам не придется делать сети самостоятельно — libvirt берет эту работу на себя, предоставляя нам готовый результат. Начнем с устройства простейшей сети, которую со старта создает libvirt — defaults.
conn = libvirt.open("qemu:///system") net = conn.networkLookupByName('default') xml = fromstring(net.XMLDesc(0)) print"default net addr =", xml.find('ip').attrib['address'] print"default net mask =", xml.find('ip').attrib['netmask'] print"default net bridge =", xml.find('bridge').attrib['name']
import libvirt from xml.etree.ElementTree import fromstring
conn = libvirt.open("qemu:///system") net = conn.networkLookupByName('default') xml = fromstring(net.XMLDesc(0)) print "default net addr =", xml.find('ip').attrib['address'] print "default net mask =", xml.find('ip').attrib['netmask'] print "default net bridge =", xml.find('bridge').attrib['name
9;]
Подключила eth0 нашей виртуальной машины к бриджу virbr0 сети default. Эта сеть имеет маску 192.168.122.0/24, подключена через NAT к внешнему миру и обслуживается dhcp сервером. Причем сам virbr0 имеет ip 192.168.122.1 и служит гейтом для этой сети. Адреса из диапазона 192.168.122.2-192.168.122.40 я ранее зарезервировал для ручного распределения, отредактировав и перезапустив сеть.
Теперь вернемся к начальному вопросу — как программно узнать ip адрес, выданный нашей виртуалке? Есть три основных способа:
Если с виртуальной машиной уже был обмен данными, то можно посмотреть в кеше маршрутизации 'ip route show cache | grep virbr0' или в кеше аппаратных адресов — 'arp -na'. Способ наименее надежный, так как если обмена не было кеши будут пустые.
Достать информацию из базы dhcp сервера — leases. Для dnsmasq это по умолчанию файл /var/lib/libvirt/dnsmasq/default.leases:
Обсуждать raw смысла не имеет — просто диск байт по байту. qcow2 самый распространенный и функциональный формат виртуальных дисков для qemu/xen.
содержит только те кластеры, в которые были записаны данные. Т.е. можно создать образ диска размером в 10G, но реальный размер файла будет расти только при фактической записи на диск.
поддерживает «наслоение» файлов. Qcow2 файл позволяет хранить только изменения относительно другого файла, представляющего базовый образ (backing store). При таком режиме базовый файл никогда не модифицируется — запись идет в «верхний» qcow2 файл, а чтение происходит из qcow2, если соответствующий кластер был модифицирован и записан в qcow2 или из базового в противном случае. Это позволяет, например, запустить несколько виртуальных машин на основе одного образа. После подготовки базового образа к нему подключается параллельно несколько qcow2 файлов и на их основе запускаются vm, каждая из которых «идет своей дорогой». Кроме экономии места на диске это также улучшает кеширование. Поддерживается перенесение(commit) изменений назад в базовый файл и некоторые другие возможности. Базовый файл может быть в любом формате — raw, qcow2, etc.
шифрование
компрессия (только для чтения, запись будет производиться в распакованный сектор)
можно делать qcow2 файлы с пред выделенным местом для метаданных, это повышает быстродействие в случае если ожидаются интенсивные дисковые операции.
Базовая утилита для работы с этими форматами — qemu-img.
$ ls -lhsS img* 1.8M -rw-r--r-- 1 koder koder 11G 2011-12-24 21:37 img_m.qcow2 0 -rw-r--r-- 1 koder koder 10G 2011-12-24 21:34 img.raw 136K -rw-r--r-- 1 koder koder 193K 2011-12-24 21:37 img.qcow2
$ ls -lhsS img* 1.8M -rw-r--r-- 1 koder koder 11G 2011-12-24 21:37 img_m.qcow2 0 -rw-r--r-- 1 koder koder 10G 2011-12-24 21:34 img.raw 136K -rw-r--r-- 1 koder koder 193K 2011-12-24 21:37 img.qcow2
Первая запись в ls это реальный размер файла на диске, а шестая — заявленный размер. В данном случае мы видим sparse файлы в действии. Все основные файловые системы в linux поддерживают выделение реального места на диске под файл при записи реальных данных и такое поведение установлено по умолчанию. В отличии от raw файлов qcow2 файлы со старта содержат управляющие структуры, так что их размен не нулевой. Впрочем при копировании/архивации и др. raw файлов все-же придется обрабатывать полный размер, в отличии от qcow2.
Базовый файл может быть любого формата, но создаваемый с backing store файл может быть только qcow2. qemu-img также Поддерживает все основные операции — изменение размера образа, смена базового файла, проверка целостности и создание/работа со снимками.
Остальные форматы интересны только при использовании соответствующих систем виртуализации и рассматривать их в контексте qemu/kvm/xen смысле не имеет. qemu-img позволяет конвертировать файлы между всеми форматами, описанными сверху. Единственное исключение — разбитые на несколько файлов диски vmWare. Для работы сначала их нужно объединить в один файл с помошью vdiskmanager, который входит в поставку vmWare Workstation for linux. Таким образом можно с kvm/xen использовать широко доступные в интернете виртуальные машины для vmWare.
Подключение этих файлов к виртуальным машинам libvirt-disk, подключение CD делается примерно так-же, как и raw файлов.
Где хранить
Для локального хранения есть два основных варианта — файл или диск/раздел/LVM устройством ( всем линуксоидам, кто еще не освоил LVM — очень советую это сделать, это мощная система управления дисковым пространством; так-же полезное чтиво — devmapper, на нем и работают в linux LVM2, всякие software RAID & Co). Создание образа на разделе/LVM принципиально не отличается от файла на FS, нужно только указывать qemu-img format не raw а host_device:
Обратите внимание на вместо него можно использовать , но virtio дает значительный прирост производительности. Virtio это система частичной паравиртуализации для kvm. Она позволяет установить в гостевой системе набор драйверов, которые будут обслуживать виртуальные устройства, передавая в гипервизор высокоуровневые запросы и избавляя гостевую систему от превращения их (запросов) в общение с портами и DMA, а гипервизор от имитации низкоуровневых протоколов. Особенно хорошо virtio ускоряет сеть и дисковые операции. В своем роде это аналог vmware tools. Все современные ядра linux поддерживают virtio без дополнительных телодвижений, но, например, ядро из debian lenny — нет. Так что образ debian lenny просто не загрузится с virtio устройства (есть virtio драйвера и для windows).
Это были локальные способы, кроме них есть еще вагон и маленькая тележка сетевых хранилищ (причем они могут быть использованы и как набор блочных устройств в режиме «по одному на VM», так и в режиме удаленного диска с файловой системой). Очевидными преимуществами сетевых хранилищ являются централизованное управление дисками для всего облака и облегчение миграции. Для небольших облаков они не так интересны, так что пробежимся по некоторым из ниx вскользь.
AOE — (ATA Over Ethernet) реализация ATA протокола поверх ethernet. Фактически ATA команды напрямую передаются удаленному винчестеру. Из преимуществ — скорость. Дисковый массив и все рабочие станции должны быть в одном сегменте локальной сети (нет маршрутизации). Основной производитель устройств — Coraid. Впрочем набор утилит открыт и можно достаточно просто самостоятельно сделать AOE сервер примероввсетипредостаточно.
iSCSI — SCSI поверх IP. Многие системы удаленного хранения работают именно на этом проколе. Маршрутизируемый (дисковый массив и рабочие станции могут располагаться в сети где угодно). Возможностей больше, чем у AOE, скорость — ниже.
nbd — Network Block Device. Протокол для раздачи блочных устройств по сети, подробнее обсуждается ниже на примере qemu-nbd.
rbd — Rados block device. Часть проекта ceph — распределенного сетевого хранилища и файловой системы (из интересного — есть прямая привязка к qemu/kvm).
drbd — Distributed Replicated Block Device. Название говорит само за себя.
Из действительно интересного — sheepdog. Это фактически первое(AFAIK) «правильное» распределенное сетевое хранилище (только для kvm/qemu). Построено в соответствии с идеями amazon dynamo (статья обязательно к прочтению всем, кто так или иначе сталкивается с распределенными системами хранения данных. Именно на этих идеях построены все основные NoSQL базы данных, ориентированные на сверхбольшие объемы данных, — Cassandra, REAK, Voldemort). К сожалению проект похож на заброшенный.
Больше информации по этим хранилищам можно получить еще и в блоге Daniel P. Berrange.
Я пока сознательно обхожу стороной производительность дисковых операций на разных форматах, поскольку это довольно большая тема для отдельного поста. Для локальных хранилищ с высоты птичьего полета результат примерно такой
— qcow2 почти такой же по скорости, как raw. Двухслойные qcow2 (и qcow2 поверх raw) примерно в два раза медленнее, если не используется SSD диск. А размещение образа на lvm разделе вместо файла увеличивает скорость работы только на больших блоках (файловые системы хорошо оптимизированы под такие нагрузки, по крайней мере XFS).
Как модифицировать
Есть масса причин модифицировать диски виртуальных машин до запуска — изменение настроек для соответствия виртуальному окружению, передача параметров в vm, установка драйверов, etc. Нас в первую очередь будет интересовать изменение сетевых настроек и передача параметров в vm.
Первый и самый основанной способ модифицировать файл с образом — каким-то образом примонтировать его в локальную файловую систему и дальше работать с локальными файлами. Для этого сначала нужно подключить его к виртуальному блочному устройству — loop.
# losetup -a /dev/loop0: [0807]:2754650 (/home/koder/vm_images/img.raw)
# mkdir -p /mnt/vm/img_0 # mount /dev/loop0 /mnt/vm/img_0
# losetup -f --show img.raw /dev/loop0
# losetup -a /dev/loop0: [0807]:2754650 (/home/koder/vm_images/img.raw)
# mkdir -p /mnt/vm/img_0 # mount /dev/loop0 /mnt/vm/img_0
После этих команд файловая система из img.raw подключена в /mnt/vm/img_0 т.е. ее корень совпадает с /mnt/vm/img_0, /etc — /mnt/vm/img_0/etc и т.д. По окончанию обработки отключаем файл
Все внесенные изменения будут сохранены в файл образа. Если на образе несколько разделов, то все чуть сложнее — либо сначала с помощью fdisk смотрим таблицу разделов, определяем смещение необходимого раздела и передаем его в опции -o в losetup либо используем kpartx:
# kpartx -a img2.raw # mount /dev/mapper/loop0p1 /mnt/vm/img_0
# kpartx -a img2.raw # mount /dev/mapper/loop0p1 /mnt/vm/img_0
kpartx делает дополнительные виртуальные устройства /dev/mapper/loop0pX для всех разделов на образе (на самом деле он использует devmapper для /dev/loop0).
Однако так можно подключить только raw образы, для всех остальных нужно использовать qemu-nbd. Это сервер, которые умеет раздавать блочное устройство по nbd протоколу. (Вообще nbd довольно интересный прокол — позволяет раздать по сети любое локальное блочное устройство, или, что еще интереснее, иммитировать его из пользовательской программы ,а не из драйвера. Вот, например ndb сервера 1, 2 на python.)
По итогу /dev/nbd0 будет представлять образ виртуальной машины, а /dev/nbd0pX — отдельные разделы. Дальнейшая работа не отличается от raw файла — монтирует полученные устройства в локальную файловую систему и елозим байты, вся поддержка формата qcow2 будет выполняться qemu-nbd сервером.
Совершенно другой способ модификации дисковых образов предлагает библиотека libguestfs. Это одна интересных библиотек, которые я видел. Она позволяет модифицировать образы виртуальных машин и многое другое. При это не требуются права root, поддерживаются все файловые системы, поддерживаемые в linux, LVM и все-все-все. Внутри она запускает простенькую виртуальную машину, монтирует в нее указанный файл образа и позволяет модифицировать его используя обширный API, который в итоге общается с VM по RPC. В принципе libguestfs позволяет и смонтировать файловую систему локально, использую fuse. Вообще возможности libguestfs очень обширны — p2v и v2v конвертация, модификация реестра windows, определение установленной операционной системы и ПО, автоматическое монтирование всего в соответствии с локальными fstab и др. Еще из интересного в нее входит guestfish — утилита командной строки, позволяющая выполнять все операции из командной строки, в комплекте с virsh они позволяют писать маленькие системы управления VM прямо на bash. Есть API для C, Python, Perl, Ruby, Ocaml и прочего. Меня, ессно, интересует в первую очередь python.
Для приведения образа vm к удобному для запуска виду нам нужно примерно такая функция:
# создаем и запускаем vm gfs = guestfs.GuestFS() gfs.add_drive_opts(disk_path, format=format) gfs.launch()
# находим раздел с /etc. Не очень чистое решение, но для образов, когда все # на одном разделе работает for dev, fs_type in gfs.list_filesystems(): if fs_type in'ext2 ext3 reiserfs3 reiserfs4 xfs jfs btrfs': # монтирует раздел в корень файловой системы vm gfs.mount(dev, '/') # если есть etc - все ок if gfs.exists('/etc'): break gfs.umount(dev)
# обновляем hostname, для правильной работы hostname нужно так-же модифицировать # /etc/hosts gfs.write('/etc/hostname', hostname)
# set eth device names for udev templ ='SUBSYSTEM=="net", DRIVERS=="?*", ATTR{{address}}=="{hw}", NAME="{name}"'
# записываем настройки сетевых интерфейсов в /etc/network/interfaces
rules_fc = [] interfaces = ["auto loniface lo inet loopback"] for
dev, (hw, ip, sz, gw) in eth_devs.items(): rules_fc.append(templ.format(hw=hw, name=dev)) interfaces.append("auto "+ dev)
chars ="".join(chr(i) for i inrange(ord('a'), ord('z') +1)) chars +="".join(chr(i) for i inrange(ord('A'), ord('Z') +1)) chars +="".join(chr(i) for i inrange(ord('0'), ord('9') +1))
hashes = {} for login, passwd in passwords.items(): salt ="".join(random.choice(chars) for _ inrange(8)) hashes[login] = crypt.crypt(passwd, "$6$"+ salt)
new_shadow = [] need_logins =set(hashes)
for ln in gfs.read_file('/etc/shadow').split('n'): ln = ln.strip() if ln !=''and ln[0] !='#': login = ln.split(':', 1)[0] if login in hashes: new_shadow.append("{login}:{hash}:{rest}".format(login=login, hash=hashes[login], rest=ln.split(':', 2)[2])) need_logins.remove(login) else: new_shadow.append(ln)
for login in need_logins: new_shadow.append("{login}:{hash}:{rest}".format(login=login, hash=hashes[login], rest="0:0:999
99:7:::"))
gfs.write('/etc/shadow', "n".join(new_shadow))
# тут еще модификация /etc/passwd, /etc/hosts, создание домащних папок, etc # полная версия на github
# создаем и запускаем vm gfs = guestfs.GuestFS() gfs.add_drive_opts(disk_path, format=format) gfs.launch()
# находим раздел с /etc. Не очень чистое решение, но для образов, когда все # на одном разделе работает for dev, fs_type in gfs.list_filesystems(): if fs_type in 'ext2 ext3 reiserfs3 reiserfs4 xfs jfs btrfs': # монтирует раздел в корень файловой системы vm gfs.mount(dev, '/') # если есть etc - все ок if gfs.exists('/etc'): break gfs.umount(dev)
# обновляем hostname, для правильной работы hostname нужно так-же модифицировать # /etc/hosts gfs.write('/etc/hostname', hostname)
# set eth device names for udev templ = 'SUBSYSTEM=="net", DRIVERS=="?*", ATTR{{address}}=="{hw}", NAME="{name}"'
# записываем настройки сетевых интерфейсов в /etc/network/interfaces
rules_fc = [] interfaces = ["auto loniface lo inet loopback"] for dev, (hw, ip, sz, gw) in eth_devs.items(): rules_fc.append(templ.format(hw=hw, name=dev)) interfaces.append("auto " + dev)
chars = "".join(chr(i) for i in range(ord('a'), ord('z') + 1)) chars += "".join(chr(i) for i in range(ord('A'), ord('Z') + 1)) chars += "".join(chr(i) for i in range(ord('0'), ord('9') + 1))
hashes = {} for login, passwd in passwords.items(): salt = "".join(random.choice(chars) for _ in range(8)) hashes[login] = crypt.crypt(passwd, "$6$" + salt)
new_shadow = [] need_logins = set(hashes)
for ln in gfs.read_file('/etc/shadow').split('n'): ln = ln.strip() if ln != '' and ln[0] != '#': login = ln.split(':', 1)[0] if login in hashes: new_shadow.append("{login}:{hash}:{rest}".format(login=login, hash=hashes[login], rest=ln.split(':', 2)[2])) need_logins.remove(login) else: new_shadow.append(ln)
for login in need_logins: new_shadow.append("{login}:{hash}:{rest}".format(login=login, hash=hashes[login], rest="0:0:99999:7:::"))
gfs.write('/etc/shadow', "n".join(new_shadow))
# тут еще модификация /etc/passwd, /etc/hosts, создание домащних папок, etc # полная версия на github
Тут использован прямой интерфейс libguestfs. Наверное, для указанных задач проще смонтировать образ через guestmount и модифицировать локальные файлы, иногда делая chroot (это, например, позволит использовать локальный passwd для обновления пароля). OpenStack делает это именно так.
Итоги
После добавки кода, управляющего образами дисков, рефакторинга и перенесения конфигов в yaml файл tiny_cloud практически готов к использованию. Можно добавить интеграцию с fabric, мониторинг, кеш пакетов и многое другое, но и так уже вполне годно к использованию. Разве что python API сделать удобное.
В функциональныхязыках есть интересная возможность, фактически являющаяся расширением идеи перегрузки функций — сопоставление с образцом. Для этого поддерживается специальный синтаксис шаблонов структур данных, позволяющий проверить что объект имеет определенный тип и/или поля, а также извлечь из него некоторые данные. Пример из haskell (частично взято тут wiki):
-- f - функция от одного целого параметра -- возвращающая целое f::Int->Int f1=0 -- если ей передать 1, то она вернет 0 f_->1 -- если что-либо другое - 1
-- map от чего угодно и пустого списка возвращает пустой список map_[]=[] -- рекурсия - map от функции и списка это конкатенация -- f от первого параметра и map от f и остатка списка map f (x:xs) = f x : map f xs
-- разбор структуры -- Foo это или Bar или Baz dataFoo=Bar|Baz {bazNumber::Int, bazName::String} h::Foo->Int -- Baz - это тип структуры, bazName - это имя поля hBaz {bazName=name} = length name hBar {} =0
-- f - функция от одного целого параметра -- возвращающая целое f :: Int -> Int f 1 = 0 -- если ей передать 1, то она вернет 0 f _ -> 1 -- если что-либо другое - 1
-- map от чего угодно и пустого списка возвращает пустой список map _ [] = [] -- рекурсия - map от функции и списка это конкатенация -- f от первого параметра и map от f и остатка списка map f (x:xs) = f x : map f xs
-- разбор структуры -- Foo это или Bar или Baz data Foo = Bar | Baz {bazNumber::Int, bazName::String} h :: Foo -> Int -- Baz - это тип структуры, bazName - это имя поля h Baz {bazName=name} = length name h Bar {} = 0
Примерно тоже можно сделать во многих функциональных языках, но я никогда не видел подобных возможностей в императивных языках. Самое близкое что есть по интеллектуальности — перегрузка функций в C++. Такое положение связанно и с особенностями задач, обычно решаемыми в функциональных языках, и с их ориентированностью на рекурсивные структуры данных и с попытками уйти от if и других императивных особенностей.
Но тем не менее желание сделать что-то подобное для python возникало после каждого ковыряния в функциональщине и после каждой конструкции вида:
if isinstance(x, Message): if x.mtype == DATA_READY and x.data is not None: #some code pass elif x.mtype == PROCESS_FINISHED: #some code pass # .... # .....
А тут что-то захотелось посмотреть внимательно на модуль ast (abstract syntax tree) — давно не использовал его, последний раз еще во времена 2.4 — тогда очень жалел, что он не позволяет компилировать измененный ast (кстати делал интересный проект по портированию большого куска кода с PyQt3 на PyQt4 и ast позволил значительно автоматизировать этот перенос).
ast позволяет получить из python кода его результат после синтаксического разбора, но еще до компиляции в байтокод, исследовать его и/или изменять и компилировать новый вариант. Пример ast:
Фактически мы получаем исходный текст в удобном для ковыряния виде (правда несколько громоздком). Именно с абстрактными синтаксически деревьями работаю всяческие анализаторы кода, оптимизаторы и прочее. ast предоставляет некоторое количество вспомогательных функций и два класса — NodeVisitor для просмотра ast и NodeTransformer для модификации.
На этом все про ast. Что хотелось от сопоставления с образцом:
Чистый python синтаксис, что-бы никаких новых зарезервированных слов и IDE что-бы не ругались
Как-можно меньше кода при использовании
Обеспечить сопоставление с константой, типом, проверку атрибутов и вложенную проверку
После некоторого времени размышлений остановился на таком варианте:
if x ==1: res =2 elifisinstance(x, int): res = x *3 elifisinstance(x, str): res = func_str(x) elifisinstance(x, SomeType) and hasattr(x, 'c') and hasattr(x, 'd') and x.c == x.d: res = on_val(x.
c) elifisinstance(x, SomeType) and hasattr(x, 'c') and hasattr(x, 'd'): res = on_val2(x, x.c) else: raiseValueError("{0!r} don't match any pattern!".format(x))
if x == 1: res = 2 elif isinstance(x, int): res = x * 3 elif isinstance(x, str): res = func_str(x) elif isinstance(x, SomeType) and hasattr(x, 'c') and hasattr(x, 'd') and x.c == x.d: res = on_val(x.c) elif isinstance(x, SomeType) and hasattr(x, 'c') and hasattr(x, 'd'): res = on_val2(x, x.c) else: raise ValueError("{0!r} don't match any pattern!".format(x))
Совсем так, как хотелось, сразу не вышло. Вышло так:
@python_match.mathing defcome_func(): # some code with python_match.match(x) as res: 1>>2 int>> x *3 str>> func_str(x) SomeType(c=V_c, d=V_c) >> on_val(V_c) SomeType(c=V_c, d=V_d) >> on_val2(x, V_c)
print res.val
import python_match
@python_match.mathing def come_func(): # some code with python_match.match(x) as res: 1 >> 2 int >> x * 3 str >> func_str(x) SomeType(c=V_c, d=V_c) >> on_val(V_c) SomeType(c=V_c, d=V_d) >> on_val2(x, V_c)
print res.val
Из необязательных ограничений — нужно импортировать модуль python_match без переименования. Обернуть все функции, где используется сопоставление с образцом, декоратором 'python_match.mathing'.
Как это работает:
декоратор с помощью модуля inspect получает исходный код функции, разбирает его в ast и прогоняет через класс MatchReplacer
MatchReplacer наследует ast.NodeTransformer и перегружает метод visit_With, в котором подменяет ноду with на измененную конструкцию со сравнениями. Строка до >> изменяется на сравнение, а в строка после — подменяются переменные.
класс Match делает сопоставление объектов с образцом, если использовалось сравнение атрибутов.
Осталось некоторое количество ограничений, которые однако не принципиальные, так что поскольку задача скорее стояла из разряда — «как бы это сделать» я не стал заниматься дальнейшими оптимизациями/улучшениями.
Отсутствие перегрузки функций — это то что мне всегда не нравилось в python. Не то что бы без них невозможно было жить, да и виртуальные методы типа __len__ сглаживают проблему, но все-таки. И пусть есть PEAK.rules, но его синтаксис всегда раздражал. Ну вот как можно без боли смотреть на это:
@when(pprint, (list,)) def pprint_list(ob): print "pretty-printing a list"
@when(pprint, (int,)) def pprint_int(ob): print "pretty-printing an integer"
#......
Во-первых опять нужно придумывать для каждого типа свои имена функций, во-вторых не по-питоновски много лишних нажатий клавиш, даже в С++ это — лишнее: @when(pprint, ( :).
Но как-то ничего принципиально лучше придумать не удавалось. В python 3+ можно будет в конце концов сделать отличную перегрузку методов через метаклассы, но до его массового использования в продакшене пока далековато. И вот недавно, при написании статьи про метаклассы в python 3 и находясь под влияние пересмотра одного видео с последнего pycon-videos, пришла в голову мысль которая оказалась рабочей ( впрочем я бы три раза подумал перед тем как положить такой код в файл, который будет использовать кто-то другой).
Ну собственно угадайте как работает написанное ниже (какая магия зашита в method_overloader.overloadable):
При написании не тривиальных приложений возникает вопрос: над какими библиотеками делать еще один абстрактный слой, а над какими — нет? Какие абстракции делать?
Стоит ли делать прослойку над, например, SQLAlchemy? Это же и так прослойка над SQL и DBAPI. Имеет ли смысл делать уровни абстракций над такими достаточно хорошими и отточенными в смысле интерфейсов библиотеками? Читать →