D-Link DGS-3620-28TC

Введение

Желание протестировать коммутатор D-Link DGS-3620-28TC в нашей тестовой лаборатории возникло из-за наличия у данной модели функции VLAN Translation. Мы уже видели реализацию данного функционала у другого производителя, однако тогда нам так и не удалось заставить его заработать. Коммутатор DGS-3620-28TC успешно справился с задачей, но обо всём по порядку.

Внешний вид

Маршрутизирующий коммутатор D-Link DGS-3620-28TC выполнен в 1U металлическом корпусе с пластиковой передней панелью и предназначен для монтажа в стойку. Габариты устройства (без учёта ушей) составляют 441х310х44 мм. Вместе с коммутатором поставляются «уши» для крепления в стойку, а также резиновые ножки для настольного размещения.

Верхняя и нижняя поверхности ничем особенным не примечательны. На боковых панелях расположена вентиляционная решётка для охлаждения устройства (направление воздушного потока не изменяемо: от одной боковой стенки до другой). Стоит, пожалуй, отметить, что уши к DGS-3620-28TC могут крепиться как ближе к передней панели, так и к задней.

На задней стороне устройства расположен разъём для подключения основного питания, а также ввод для подсоединения к резервному источнику питания постоянного тока (закрыт защитной пластинкой).

Лицевая панель несёт на себе 20 медных порта Gigabit Ethernet (с 1 по 20), также четыре комбо-порта (21-24) для подключения к медной или оптической сети, а также четыре порта SFP+ для подключения к оптическим сетям 10GE. Кроме того на передней панели расположен слот для SD-карт, разъём для подключения внешних датчиков, световые индикаторы состояния портов и всего устройства, а также консольный и управляющий интерфейсы.

Заглянем теперь внутрь корпуса.

Аппаратная платформа

Электронная начинка коммутатора DGS-3620-28TC состоит из четырёх плат: двух основных и двух вспомогательных. Вспомогательные платы выполняют функции блока питания и вывода световой индикации о состоянии портов.

Маленькая плата выполняет функции управляющего модуля, на ней основные элементы размещаются с двух сторон.

Система построена на базе одноядерного MIPS процессора Broadcom BCM53003B3KPBG, работающего на частоте 600 МГц. Блок-схема данного процессора представлена ниже.

В качестве флеш-памяти использованы два модуля Spansion S29GL512P11TFI01, объём каждого составляет 64 Мбайта, таким образом системе доступно 128 Мбайт флеш-памяти. Функции оперативной памяти выполняют два DDR2 модуля Winbond W971GG6JB-25, объём каждого равен 128 Мбайт, то есть всего 256 Мбайт оперативной памяти доступно системе.

На большой плате для коммутации используются следующие чипы Broadcom: BCM54680B0KFBG, BCM54640B0KFBG, BCM8747BKFBG и BCM56334B0KFSBG. Модуль Broadcom BCM5461SA1KPFG обеспечивает работу MGMT-порта. Работа с SD картами поддерживается чипом Realtek RTS5159.

На этом мы завершаем рассмотрение аппаратной части и переходим к изучению программной составляющей.

Обновление прошивки

Смена версии микропрограммного обеспечения может производиться с помощью командной строки или веб-интерфейса устройства. Рассмотрим сначала процедуру обновления через интерфейс командной строки. Перед началом обновления пользователю необходимо загрузить файл с новой прошивкой с сервера производителя и разместить этот файл на своём TFTP-сервере.

Выяснить текущую версию прошивки можно с помощью команды show switch.

DGS-3620-28TC:admin#sho swi
Command: show switch
Device Type : DGS-3620-28TC Gigabit Ethernet Switch
MAC Address : 84-C9-B2-1F-BE-00
IP Address : 10.90.90.90 (Manual)
VLAN Name : default
Subnet Mask : 255.0.0.0
Default Gateway : 0.0.0.0
Boot PROM Version : Build 1.00.012
Firmware Version : Build 1.00.035
Hardware Version : A1
Firmware Type : EI
Serial Number : PVXF1B8000113
System Name :
System Location :
System Uptime : 0 days, 1 hours, 22 minutes, 1 seconds
System Contact :
Spanning Tree : Disabled
GVRP : Disabled
IGMP Snooping : Disabled
MLD Snooping : Disabled
RIP : Disabled
RIPng : Disabled
DVMRP : Disabled
PIM : Disabled
PIM6 : Disabled
OSPF : Disabled
OSPFv3 : Disabled
BGP : Disabled
VLAN Trunk : Disabled
Telnet : Enabled (TCP 23)
Web : Enabled (TCP 80)
SNMP : Disabled
SSL Status : Disabled
SSH Status : Disabled
802.1X : Disabled
Jumbo Frame : Off
CLI Paging : Enabled
MAC Notification : Disabled
Port Mirror : Disabled
SNTP : Disabled
DHCP Relay : Disabled
DNSR Status : Disabled
VRRP : Disabled
HOL Prevention State : Enabled
Syslog Global State : Disabled
Single IP Management : Disabled
Password Encryption Status : Disabled
DNS Resolver : Disabled

Первое, что требуется сделать, - выгрузить файл с прошивкой на коммутатор.

DGS-3620-28TC:admin#download firmware_fromTFTP 10.90.90.92 src_file new.had dest_file c:/new.had
Command: download firmware_fromTFTP 10.90.90.92 src_file new.had dest_file c:/new.had
Connecting to server................... Done.
Download firmware...................... Done. Do not power off!
Please wait, programming flash......... Done.
Success.

Затем необходимо указать, что после перезагрузки должен быть использован именно эта версия микропрограммного обеспечения, и выполнить саму перезагрузку.

DGS-3620-28TC:admin#dir
Command: dir
Directory of /c:
Idx Info Attr Size Update Time Name
--- ------- ---- -------- ------------------- ----------------
1 RUN(b) -rw- 7182308 2000/01/01 02:06:39 new.had
2 RUN(*) -rw- 7182308 2000/01/01 02:01:38 runtime.had
3 d--- 0 2000/01/01 00:00:12 system
126002 KB total (111882 KB free)
(*) -with boot up info (b) -with backup info
DGS-3620-28TC:admin#config firmware image c:/new.had boot_up
Command: config firmware image c:/new.had boot_up
Success.
DGS-3620-28TC:admin#show boot_file
Command: show boot_file
Bootup Firmware : /c:/new.had
Bootup Configuration : /c:/config.cfg
DGS-3620-28TC:admin#reboot
Command: reboot
Are you sure you want to proceed with the system reboot?(y/n)

Убедиться в успешности произведённого обновления можно также с помощью команды show switch (часть вывода удалена).

DGS-3620-28TC:admin#show switch
Command: show switch
Device Type : DGS-3620-28TC Gigabit Ethernet Switch
Boot PROM Version : Build 1.00.012
Firmware Version : Build 1.00.038

Стоит также отметить, что смена прошивки возможна не только для одного конкретного коммутатора, но также и для их группы. В этом случае необходимо специально указывать идентификатор устройства, для которого производится обновление.

DGS-3620-28TC:admin#download firmware_fromTFTP sr src_file new.had unit ?
Command: download firmware_fromTFTP sr src_file new.had unit
Next possible completions:
<unit_id>

Аналогичных результатов можно добиться с помощью веб-интерфейса, где требуется обратиться к пункту Download Firmware меню Tools.

После того, как файл выгружен на коммутатор, необходимо сохранить текущую конфигурацию и перезагрузить устройство.

Убедиться в успешности проведённого обновления можно с помощью стартовой странички устройства.

На этом мы завершаем рассмотрение процедуры обновления микропрограммного обеспечения коммутатора D-Link DGS-3620-28TC и переходим к изучению его программных возможностей.

Обзор веб-интерфейса

Кроме заявленной во введении функции VLAN Translation коммутатор D-Link DGS-3620-28TC обладает ещё огромным набором разнообразных возможностей, к беглому рассмотрению которых мы и приступаем. При входе запрашивается логин и пароль. При использовании современных прошивок оба эти поля при первом входе необходимо оставить пустыми.

После ввода логина и пароля администратор попадает на стартовую страничку устройства, где представлены краткие сведения о самом устройстве и поддерживаемых протоколах.

Группа меню System Configuration позволяет администратору управлять настройками времени на коммутаторе, изменять базу данных пользователей, задавать параметры стекирования и журналирования. Также здесь можно объединять физические порты в группы.

Отдельно хотелось бы упомянуть о подгруппе Port Configuration, позволяющей управлять физическими параметрами работы сетевых интерфейсов коммутатора. Если оптические SFP-модули обладают поддержкой DDM (Digital Diagnostic Monitoring), то доступ к ней администратор может получить с помощью пунктов одноимённой подгруппы.

Коммутатор D-Link DGS-3620-28TC не имеет поддержки PoE (Power over Ethernet), однако при включении стекирования соответствующая подгруппа появляется в меню, что объясняется возможностью добавления в стек коммутатора с поддержкой PoE.

Параметры доступа к коммутатору для управления собраны в группе Management. D-Link DGS-3620-28TC поддерживает как внеполосное, так и внутриполосное управление. Также в этой группе расположена подгруппа Power Saving, позволяющая изменить параметры сбережения электроэнергии.

Подгруппа VLAN группы L2 Features позволяет администратору определять принадлежность к той или иной виртуальной сети на основе тэгов, портов, MAC или IP-адресов, протоколов сетевого уровня. Настройки протокола распространения информации о виртуальных сетях GVRP, супер виртуальных сетях, голосовых и приватных VLAN также представлены в этой подгруппе. В принципе, принадлежность к голосовым виртуальным сетям может быть также определена с помощью подгруппы LLDP.

Параметры работы технологии QinQ и протокола связующего дерева собраны в подгруппах QinQ и Spanning Tree той же группы. Приятной возможностью коммутатора D-Link DGS-3620-28TC стало наличие функции трансляции номеров виртуальных сетей, то есть когда один VID, приходящий через транковый порт, заменяется другим VID.

Агрегация физических портов в один логический производится с помощью подпункта Link Aggregation того же пункта меню. Для поддержки агрегированного интерфейса используется протокол LACP.

Таблица MAC-адресов и параметры её работы доступны администратору в подгруппе FDB.

Настроить групповую рассылку можно с помощью подгрупп L2 Multicast Control и Multicast Filtering.

Подпункт ERPS Settings предназначен для организации кольцевых топологий в сети Ethernet без использования протокола STP, но с применением более перспективного решения – ERPS (Ethernet Ring Protection Switching (ITU-T G.8032)), обеспечивающего время восстановления работоспособности сети менее 50мс.

Коммутатор D-Link DGS-3620-28TC позволяет сетевым администраторам подключать к нему сервера, нагрузка между которыми балансируется с использованием технологии NLB (Network Load Balancing). Соответствующая настройка доступна в подпункте NLB FDB Settings.

Получение очень точного времени производится с помощью протокола PTP, опции которого собраны в одноимённой подгруппе.

Управление статической маршрутизацией производится с помощью первых четырёх подпунктов группы L3 Features. Статические маршруты для группового вещания могут быть заданы в подпункте Static Multicast Route Settings.

Тестируемый L3-коммутатор поддерживает маршрутизацию по условию, соответствующая настройка доступна в подпункте Policy Route Settings той же группы.

Приоритет маршрута, полученного через разные протоколы динамической маршрутизации, задаётся с помощью административной дистанции, изменить которую можно с помощью подпункта Route Preference Settings группы L3 Features.

Правила балансировки нагрузки между одинаковыми (с точки зрения OSPF) маршрутами можно изменить в подпункте ECMP Algorithm Settings.

Передача маршрутов между различными протоколами маршрутизации производится с помощью подпунктов подгруппы Route Redistribution.

Управление туннелями 6to4, ISATAP и GRE производится с помощью подгруппы IP Tunnel.

Доступ к параметрам работы протоколов динамической маршрутизации OSPF, RIP и BGP можно получить с помощью одноимённых подгрупп. Настройка аутентификации OSPF производится в подпункте MD5 Settings.

Настройка маршрутизации для группового трафика производится с использованием элементов подгруппы IP Multicast Routing Protocol, а также с помощью подпункта IGMP Static Group Settings.

Правильной практикой построения сети является использование такой топологии, в которой все важные элементы продублированы. Такое дублирование можно провести с помощью протокола VRRP, настройка которого представлена в одноимённой подгруппе.

Подгруппа IP Route Filter позволяет администратору указать правила распространения маршрутной информации об определённых подсетях.

Пункт URPF Settings предназначен для включения на определённых физических портах функции защиты от спуфинга (URPF – Unicast Reverse Path Forwarding).

Настройки протокола 802.1p, параметры ограничения трафика и прочие опции, связанные с обеспечением качества обслуживания, собраны в группе QoS.

Управление списками доступа производится с помощью подпунктов группы ACL. Приятной опцией является возможность фильтрации трафика, обрабатываемого самим коммутатором.

Группа Security отвечает за работу с протоколом 802.1X, RADIUS аутентификацию, привязку IP и MAC адресов к порту, списки доступа MAC-уровня, аутентификацию пользователя по протоколу HTTP, защиту от сетевых атак, обнаружение петель, доступ администратора к коммутатору.

Кроме выполнения основных функций (коммутация и маршрутизация) D-Link DGS-3620-28TC может выполнять также целый ряд вспомогательных, заменяя собой ряд слабонагруженных серверов в сети. К числу таких функций можно отнести возможность работы устройства в качестве DHCP-сервера и ретранслятора для четвёртой и шестой версий протокола IP, DNS посредника, SNTP-сервера. Для доступа к указанным функциям необходимо обратиться к группе Network Application. Также здесь можно просмотреть содержимое встроенной флеш-памяти и выполнить некоторые операции с ней. Стоит также отметить, что подпункт UDP Helper пункта UDP позволяет настроить проброс определённых UDP-дейтаграмм на специализированный сервер.

Кабельная диагностика доступна в группе OAM, здесь же можно изменить параметры, относящиеся к поддержке стандарта 802.1ag.

Пункты подгруппы Utilization группы Monitoring отображают загрузку процессора, оперативной и флеш-памяти устройства. Здесь же можно посмотреть использование физических портов. Статистические сведения о работе портов представлены в подгруппе Statistics.

Коммутатор D-Link DGS-3620-28TC поддерживает SPAN и RSPAN сессии, соответствующие настройки доступны в подгруппе Mirror.

Для настройки sFlow необходимо обратиться к одноимённой подгруппе.

Проверить связность сети можно с помощью подгруппы Ping и пункта Trace Route.

Просмотреть температуры внутри корпуса, проверить скорость вращения вентиляторов, а также установить наличие иных аварийных событий можно с помощью подпункта Peripheral.

На этом мы завершаем рассмотрение веб-интерфейса коммутатора и переходим к изучению возможностей интерфейса командной строки.

Командная строка

Для доступа к командной строке устройства допустимо использование протоколов telnet и SSH, которые должны быть разрешены в соответствующих пунктах веб-интерфейса.

Мы не станем подробно описывать все возможности командной строки коммутатора, отметим лишь, что производитель считает такой инструмент настройки более гибким. Практически все команды можно отнести к нескольким крупным группам: команды очистки или сброса текущего состояния – clear, команды настройки – config, создания и удаления виртуальных объектов – create и delete, отладки – debug, включения и отключения – enable и disable, а также просмотровые – show. Полный список команд мы вынесли в отдельный файл.

Так, например, нас заинтересовала команда show utilization dram, отображающая занятость оперативной памяти. Из её вывода становится ясно, что коммутатор DGS-3620-28TC не может быть использован для получения BGP full-view, насчитывающую на сегодняшний день около полумиллиона записей.

DGS-3620-28TC:admin#show utilization dram
Command: show utilization dram
DRAM utilization :
Total DRAM : 262144 KB
Used DRAM : 253073 KB
Utilization : 96 %

Выяснить, кто управляет коммутатором в данный момент можно с помощью команды show session.

DGS-3620-28TC:admin#show session
Command: show session
ID Live Time From Level User
--- ------------ --------------------------------------- ----- ---------------
8 08:47:34.070 Serial Port login Anonymous
24 00:21:29.120 172.17.35.36 admin Anonymous
Total Entries: 2

Чтобы просмотреть мостовую таблицу, необходимо выполнить команду show fdb. В нашем случае мостовая таблица была пуста.

DGS-3620-28TC:admin#sho fdb
Command: show fdb
Unicast MAC Address Aging Time = 300
VID VLAN Name MAC Address Port Type Status
---- -------------------------------- ----------------- ----- ------- -------
1 default 84-C9-B2-1F-BE-00 CPU Self Forward
Total Entries: 1

Информация о работающих службах представлена в выводе команды show switch.

DGS-3620-28TC:admin#show switch
Command: show switch
Device Type : DGS-3620-28TC Gigabit Ethernet Switch
MAC Address : 84-C9-B2-1F-BE-00
IP Address : 10.90.90.90 (Manual)
VLAN Name : default
Subnet Mask : 255.0.0.0
Default Gateway : 0.0.0.0
Boot PROM Version : Build 1.00.016
Firmware Version : Build 2.50.017
Hardware Version : A1
Firmware Type : EI
Serial Number : PVXF1B8000113
System Name :
System Location :
System Uptime : 5 days, 8 hours, 50 minutes, 28 seconds
System Contact :
Spanning Tree : Enabled
GVRP : Disabled
IGMP Snooping : Disabled
MLD Snooping : Disabled
RIP : Disabled
RIPng : Disabled
DVMRP : Disabled
PIM : Disabled
PIM6 : Disabled
OSPF : Disabled
OSPFv3 : Disabled
BGP : Disabled
VLAN Trunk : Disabled
Telnet : Enabled (TCP 23)
Web : Enabled (TCP 80)
SNMP : Disabled
SSL Status : Disabled
SSH Status : Enabled
802.1X : Disabled
Jumbo Frame : Off
CLI Paging : Enabled
MAC Notification : Disabled
Port Mirror : Disabled
SNTP : Disabled
DHCP Relay : Disabled
DNSR Status : Disabled
VRRP : Disabled
HOL Prevention State : Enabled
Syslog Global State : Disabled
Single IP Management : Disabled
Password Encryption Status : Disabled
DNS Resolver : Disabled

Кроме указанных групп команд существует ещё и ряд других системных вызовов, не относящихся напрямую к той или иной группе. Так, например, с помощью команд ping и traceroute можно проверить связность сети.

DGS-3620-28TC:admin#ping 8.8.8.8
Command: ping 8.8.8.8
Reply from 8.8.8.8, time=10ms
Reply from 8.8.8.8, time=10ms
Reply from 8.8.8.8, time=10ms
Reply from 8.8.8.8, time=10ms
Ping Statistics for 8.8.8.8
Packets: Sent =4, Received =4, Lost =0

В разделе тестирования мы будем собирать схему для проверки работоспособности функции VLAN translation, для чего будем использовать веб-интерфейс устройства. Того же самого можно добиться и с применением командной строки.

DGS-3620-28TC:admin#create vlan_translation ports 8 replace cvid 3 svid 2 priority 0
Command: create vlan_translation ports 8 replace cvid 3 svid 2 priority 0
Success.
DGS-3620-28TC:admin#show vlan_translation
Command: show vlan_translation
Port CVID SPVID Action Priority
----- -------- -------- ------- ---------
8 3 2 Replace 0
14 3 2 Replace -
Total Entries: 2

Сохранение настроек производится с помощью команды save.

DGS-3620-28TC:admin#save
Command: save
Saving all configurations to NV-RAM.......... Done.

На этом мы завершаем беглое рассмотрение возможностей интерфейса командной строки коммутатора D-Link DGS-3620-28TC и переходим к его тестированию.

Тестирование

Данный раздел мы традиционно начинаем с установления времени загрузки устройство, под которым мы понимаем интервал времени, прошедший с момента подачи питания на коммутатор, до получения первого эхо-ответа по протоколу ICMP. D-Link DGS-3620-28TC загружается за 35 секунд, что является неплохим значением.

Второй тест – проверка защищённости устройства, выполняемый нами с использованием сканера сетевой безопасности Positive Technologies XSpider 7.7 (Demo build 3100). Сканирование производилось со стороны интерфейса управления. Всего было обнаружено два открытых порта: TCP-23 (Telnet) и TCP-443 (HTTP SSL). Наиболее интересные обнаруженные сведения представлены ниже.

Обычно современные коммутаторы без проблем справляются с задачей передачи фреймов на скорости среды, поэтому мы не стали измерять производительность устройства при выполнении коммутации и маршрутизации. Вместо этого мы провели измерения задержки, вносимой DGS-3620-28TC при коммутации и маршрутизации для фреймов размером 100, 400, 1400 и 1518 байт. Тесты проводились при различной загрузке интерфейсов на скорости подключения в 1 Гбит/с. Основные параметры использованного оборудования представлены ниже.

Компонент ПК Ноутбук
Материнская плата ASUS Maximus V Extreme ASUS M60J
Процессор Intel Core i7 3770K 3.5 ГГц Intel Core i7 720QM 1.6 ГГц
Оперативная память DDR3 PC3-10700 SEC 32 Гбайта DDR3 PC3-10700 SEC 16 Гбайт
Сетевая карта Intel Gigabit CT Desktop Adapter Atheros AR8131
Операционная система Windows 7 x64 SP1 Rus Windows 7 x64 SP1 Rus

На диаграммах ниже представлены задержки на коммутацию и маршрутизацию, вносимые коммутатором D-Link DGS-3620-28TC.

На обоих графиках задержки при передаче фреймов размером 400 байт ощутимо больше задержек, наблюдаемых для фреймов других размеров. Мы не можем объяснить полученный результат, однако даже задержка для 400-байтных кадров находится в пределах нормы. Средняя задержка, вносимая тестируемым L3-коммутатором, составляет примерно 4 мкс, что, на наш взгляд, является неплохим результатом для устройств подобного класса. При увеличении загрузки сетевых интерфейсов, через которые осуществлялась передача тестовых фреймов, задержка также незначительно увеличивалась, оставаясь в допустимых пределах. Полученные данные лучше тех, что мы наблюдали для коммутаторов Cisco Catalyst 3750G ранее.

Одной из интересных и новых для нас возможностей стала функция VLAN translation, являющаяся частью механизма QinQ. Суть VLAN translation состоит в том, что с её помощью можно заменять в тегированных кадрах одно значение VID на другое, то есть переопределять принадлежность к VLAN кадра, полученного через транковый порт. Для проверки работы данного функционала была собрана схема, представленная ниже. Хотелось бы сразу отметить, что подобной цели можно было бы добиться путём установки разных значений Native VLAN на противоположных концах транка, но такая схема работала бы лишь для одной единственной виртуальной сети, тогда как VLAN translation позволяет производить замену сразу для нескольких VID.

Дополнительным требованием с нашей стороны стало участие всех трёх коммутаторов в STP, что, на наш взгляд, необходимо для полноценной работы сети. Так как STP в его классическом виде безнадёжно устарел, единственным выбором стало использование MST. При пробросе через DGS-3620-28TC BPDU Cisco PVST+ происходило блокирование портов, так как коммутаторы Cisco Catalyst видели BPDU одной виртуальной сети внутри фреймов с тегами другой виртуальной сети. Чтобы не усложнять конструкцию, мы использовали единственный экземпляр STP – MST0. В этот экземпляр были добавлены все существующие на коммутаторах виртуальные сети. Со стороны коммутаторов Cisco Catalyst была произведена нижеследующая настройка.

left(config)#spanning-tree mode mst
left(config)#spanning-tree mst configuration
left(config-mst)#instance 0 vlan 1-4094

На стороне левого коммутатора Cisco Catalyst была создан VLAN 2 и виртуальный интерфейс SVI со следующими параметрами.

interface Vlan2
ip address 192.168.1.1 255.255.255.252
end

На правом коммутаторе – VLAN 3 и соответствующий виртуальный интерфейс.

interface Vlan3
ip address 192.168.1.2 255.255.255.252
end

Между коммутатором C3750G (слева) и DGS-3620-28TC был поднят транк, через который со стороны Cisco Catalyst пропущена виртуальная сеть 2. Для коммутатора C2960 (справа) были выполнены аналогичные настройки, но только с разрешением виртуальной сети 3.

interface GigabitEthernet1/0/1
switchport trunk encapsulation dot1q
switchport trunk allowed vlan 2
switchport mode trunk
load-interval 30
end

Теперь рассмотрим настройки DGS-3620-28TC. На транковых портах были разрешены VLAN 2 и 3.

Необходимо также задать роль порта, указать выходной TPID, а также включить QinQ.

Теперь зададим саму трансляцию идентификаторов виртуальных сетей.

Не стоит также забывать и о настройках Spanning Tree.

Проверкой работоспособности собранной схемы стало успешное хождение ICMP эхо-запросов между SVI-интерфейсами коммутаторов Cisco Catalyst.

right#sho ip int bri | i up
Vlan3 192.168.1.2 YES manual up up
GigabitEthernet0/1 unassigned YES unset up up
right#ping 192.168.1.1
Type escape sequence to abort.
Sending 5, 100-byte ICMP Echos to 192.168.1.1, timeout is 2 seconds:
!!!!!
Success rate is 100 percent (5/5), round-trip min/avg/max = 1/4/9 ms
right#

Совместную работу с протоколом Spanning Tree мы проверили, увеличив значение приоритета для граничных коммутаторов, оставив без изменений настройки DGS-3620-28TC. Увеличение приоритета коммутатора снижает его шансы стать корневым в дереве STP. Таким образом в качестве корневого коммутатора должен был быть выбран D-Link DGS-3620-28TC, в чём можно убедиться просмотреть состояние коммутаторов Catalyst для соответствующих виртуальных сетей.

left#sho spanning-tree vlan 2
MST0
Spanning tree enabled protocol mstp
Root ID Priority 32768
Address 84c9.b21f.be00
Cost 20000
Port 1 (GigabitEthernet1/0/1)
Hello Time 2 sec Max Age 20 sec Forward Delay 15 sec
Bridge ID Priority 61440 (priority 61440 sys-id-ext 0)
Address 04fe.7fc5.9780
Hello Time 2 sec Max Age 20 sec Forward Delay 15 sec
Interface Role Sts Cost Prio.Nbr Type
------------------- ---- --- --------- -------- --------------------------------
Gi1/0/1 Root FWD 20000 128.1 P2p Bound(RSTP)

right#sho spanning-tree vlan 3
MST0
Spanning tree enabled protocol mstp
Root ID Priority 32768
Address 84c9.b21f.be00
Cost 20000
Port 25 (GigabitEthernet0/1)
Hello Time 2 sec Max Age 20 sec Forward Delay 15 sec
Bridge ID Priority 61440 (priority 61440 sys-id-ext 0)
Address 88f0.77dc.1880
Hello Time 2 sec Max Age 20 sec Forward Delay 15 sec
Interface Role Sts Cost Prio.Nbr Type
------------------- ---- --- --------- -------- --------------------------------
Gi0/1 Root FWD 20000 128.25 P2p Bound(RSTP)

Так как настройка оборудования и проверка обсуждаемого функционала заняло у нас много времени, мы решили представить нашим читателям полные конфигурационные файлы для левого и правого коммутаторов, а также для D-Link DGS-3620-28TC.

Коммутатор D-Link DGS-3620-28TC позволяет ограничить скорость пользовательского трафика, передаваемого через определённый порт (QoS-Bandwidth Control-Bandwidth Control Settings), мы решили проверить, насколько заданные значения скорости соответствуют реальным скоростям передачи пользовательских данных. На диаграмме ниже обе оси имеют логарифмический масштаб.

Также мы решили проверить работу функции агрегации физических каналов в логический. Для этого в качестве второго коммутатора мы использовали модель Cisco Catalyst 2960. Проверка производилась с использованием виртуальной сети 2, которая была создана на обоих коммутаторах. На коммутаторе DGS-3620-28TC мы создали интерфейс в VLAN2 с IP-адресом 192.168.2.1/24 (Management-IP Interface-Interface Settings), на Catalyst 2960 создали SVI-интерфейс также во второй виртуальной сети и назначили IP-адрес 192.168.2.2/24.

Порты 21 и 22 коммутатора DGS-3620-28TC были добавлены в транки с разрешённым VLAN2 (L2 Features-VLAN-802.1Q VLAN Settings). Аналогичные действия были проведены на коммутаторе Catalyst 2960 для портов Fa0/21 и Fa0/22.

С помощью подпунктов Port Trunking Settings и LACP Port Settings группы L2 Features-Link Aggregation мы создали Port-Channel 1, в который входят порты 21 и 22. Балансировка осуществляется по IP-адресам отправителя и получателя.

На стороне Catalyst 2960 были выполнены аналогичные настройки. В представленном ниже листинге находятся только команды, непосредственно относящиеся к текущему тесту.

port-channel load-balance src-dst-ip
vlan 2
name up_vlan
interface Port-channel1
switchport trunk allowed vlan 2
switchport mode trunk
interface FastEthernet0/21
switchport trunk allowed vlan 2
switchport mode trunk
load-interval 30
channel-protocol lacp
channel-group 1 mode active
spanning-tree portfast trunk
interface FastEthernet0/22
switchport trunk allowed vlan 2
switchport mode trunk
load-interval 30
channel-protocol lacp
channel-group 1 mode active
spanning-tree portfast trunk
interface Vlan2
ip address 192.168.2.2 255.255.255.0
load-interval 30

Успешное создание логического канала отображается в выводе команды show etherchannel summary, введённой на коммутаторе Cisco Catalyst 2960.

2960#sho etherchannel summary
Flags: D - down P - bundled in port-channel
I - stand-alone s - suspended
H - Hot-standby (LACP only)
R - Layer3 S - Layer2
U - in use f - failed to allocate aggregator
M - not in use, minimum links not met
u - unsuitable for bundling
w - waiting to be aggregated
d - default port
Number of channel-groups in use: 1
Number of aggregators: 1
Group Port-channel Protocol Ports
------+-------------+-----------+-----------------------------------------------
1 Po1(SU) LACP Fa0/21(P) Fa0/22(P)

Также убедиться в работоспособности построенного канала можно с помощью ICMP эхо-запросов, отправляемых с любого из коммутаторов. Пример такой отправки с коммутатора DGS-3620-28TC представлен ниже (Monitoring-Ping-Ping Test).

В качестве финального теста для коммутатора D-Link DGS-3620-28TC мы выбрали проверку работоспособности функционала LLDP MED, позволяющего подключать к порту коммутатора IP-телефон так, чтобы сам телефон был в одной виртуальной сети, а ПК, подключенный через телефон, - в другой. В этом случае IP-телефон выполняет функции моста. Для проверки мы использовали телефоны Avaya one-X Deskphone 9620L и 9650. Порт коммутатора, к которому подключается телефон, настраивается в качестве обычного порта доступа виртуальной сети для ПК. Дополнительно к этому должны быть введены следующие команды.

enable lldp
config lldp_med ports 11 med_transmit_capabilities all state enable
enable voice_vlan vlanid 3
config voice_vlan ports 11 state enable

Хотелось бы обратить внимание читателей на то, что мы подключали телефон к порту №11, а VLAN 3 использовался в качестве голосовой виртуальной сети, то есть при повторении указанных команд потребуется заменить номер порта и виртуальной сети на те, что используются в реальной сети.

Проверить успешность подключения телефона можно с помощью команды show voice_vlan lldp_med voice_device, вывод которой представлен ниже.

DGS-3620-28TC:admin#show voice_vlan lldp_med voice_device
Command: show voice_vlan lldp_med voice_device
Index : 1
Local Port : 11
Chassis ID : 172.16.99.249
Port ID Subtype : MAC Address
Port ID : 3C-B1-5B-4B-9C-C7
Create Time : 7/25/2013 06:38:37
Remain Time : 98 Seconds
Total Entries : 1

Аналогичные сведения можно получить и с помощью пункта L2 Features-VLAN-Voice VLAN-Voice VLAN LLDP-MED Voice Device веб-интерфейса.

Полностью убедиться в правильной настройке оборудования можно совершив тестовый звонок с телефона и установив наличие доступа к остальной части сети у ПК, подключенного к телефону.

На этом мы завершаем тестирование коммутатора D-Link DGS-3620-28TC и переходим к подведению итогов.

Заключение

В целом мы остались довольны протестированным гигабитным L3 коммутатором D-Link DGS-3620-28TC, возможностей которого вполне хватит для успешной работы на уровнях доступа и агрегации крупных сетей, а также и в ядрах сетей небольших и средних компаний. Более богатыми возможностями, по сравнению с веб-интерфейсом, обладает интерфейс командной строки, не являющийся cisco-like, что поначалу у нас вызывало незначительные затруднения, однако в процессе работы мы смогли легко адаптироваться к представленному синтаксису.

Сильные стороны DGS-3620-28TC перечислены ниже.

  • Богатый функционал.
  • Поддержка IPv6.
  • Возможность выполнения функций DHCP-сервера с поддержкой нескольких дополнительных опций.
  • Поддержка SNMPv3.
  • Возможность как внутриполосного, так и внеполосного управления.
  • Поддержка функции VLAN translation.
  • Наличие LLDP MED.
  • Возможность виртуального стекирования.

К сожалению, мы не можем не указать и на обнаруженные недостатки.

  • Немного заторможенный веб-интерфейс.
  • Не самый простой интерфейс командной строки.

На момент написания статьи средняя цена на коммутатор D-Link DGS-3620-28TC в интернет-магазинах Москвы составляла 75000 рублей.

Автор и редакция благодарят проект Anticisco за помощь в проведении тестирования.

NComputing N400 – тонкий клиент для Citrix

Введение

На наших страницах однажды уже появлялся обзор тонкого клиента NComputing L300, обеспечивающего подключения к серверу со специализированным программным обеспечением vSpace. Сегодня к нам в редакцию попала другая модель от того же производителя – N400, позволяющая производить подключения к существующим корпоративным серверам Citrix и не требующая установки никакого дополнительного программного обеспечения на них. Сегодня мы попытаемся разобраться со всеми возможностями устройства и предоставить нашим читателям подробный обзор терминального клиента NComputing N400.

Внешний вид и аппаратная платформа

Терминальный клиент NComputing N400 поставляется в чёрном пластиковом корпусе, габариты которого составляют 181х115х31 мм. Для своей работы устройство требует наличие внешнего источника постоянного напряжения со следующими характеристиками: 12В и 1.5А.

На передней панели клиента расположена кнопка включения/выключения устройства, два порта USB 2.0, аудио вход и выход, а также название компании-производителя.

Боковые поверхности несут на себе вентиляционную решётку.

Верхняя панель зеркальная и ничем особенным не примечательна кроме объёмного логотипа производителя и световых индикаторов работы устройства и подключения к локальной сети.

На задней панели расположены два порта USB 2.0 для подключения мышки и клавиатуры, порт Ethernet, DVI-разъём для подключения монитора, гнездо для подключения питания, а также Кенсингтонский замок. Стоит отметить, что здесь предусмотрено место для подключения внешней антенны, однако беспроводного модуля в модели N400 нет, подключение к беспроводным сетям можно осуществить только с моделью N500w.

На днище находятся четыре резиновых ножки для размещения N400 на столе, а также Г-образные технологические отверстия для крепления устройства к стене или монитору, а также наклейка с краткой информацией о клиенте.

Аппаратная платформа N400 представлена единственной зелёной текстолитовой платой, основные элементы на которой расположены с одной стороны.

Терминальный клиент N400 построен на базе SoC-чипа NComputing NUMO3, блок-схема использования которого представлена ниже. Основу NUMO3 составляет двухядерный ARM-процессор Cortex A9, работающий на частоте 2 ГГц.

Флеш-память имеет объём 512 Мбайт и представлена чипом Samsung K9F4G08U0D. Для оперативной памяти использовано четыре DDR3-чипа K4B2G08460 по 256 Мбайт каждый, таким образом суммарный объём оперативной памяти составляет 1 Гбайт. Поддержку сети обеспечивает модуль Realtek RTL8211DG. Silicon Image SIL164CTG64 предназначен для работу с графическими данными.

Перейдём теперь к программной составляющей устройства.

Обновление прошивки и vSpace Management Center

Обновление прошивки производится с помощью пункта Device меню графического интерфейса устройства. Здесь необходимо указать ссылку на файл, содержащий новую прошивку, а также при необходимости задать имя и пароль доступа к этому сервису. Стоит отметить, что в новых прошивках внешний вид и количество вкладок изменились, поэтому для смены версии микропрограммного обеспечения в последних прошивках необходимо использовать пункт General или же подпункт Firmware/Wallpaper Update вкладки Management.

Микропрограммное обеспечение начиная с версии 1.4.1.1 можно обновлять не только с удалённых серверов по сети, но также и с локальных носителей, подключённых к USB-портам тонкого клиента.

Кроме описанных выше способов обновления прошивки существует ещё один – с помощью утилиты vSpace Management Center, предназначенной для централизованного управления несколькими тонкими клиентами. Для того чтобы привязать конкретное устройству к vSpace Management Center, необходимо обратиться к одноимённому подпункту вкладки Management, где указать имя или IP-адрес сервера, на котором установлено соответствующее программное обеспечение.

Доступ к обсуждаемому программному обеспечению производится с помощью любого современного браузера. С помощью vSpace Management Center администратор может контролировать количество тонких клиентов в сети, изменять их конфигурацию и настраивать профили, создавать группы устройств и управлять ими, а также централизованно выполнять любые другие процедуры по конфигурированию тонких клиентов.

Для замены прошивки с помощью vSpace Management Center нужно сначала обратиться к пункту Manage Firmware меню Administration, с помощью которого производится загрузка файлов с прошивками в систему, после чего с помощью пункта Update Firmware меню Device Management выбрать прошивку и устройство, а также запланировать процедуру обновления.

Перейдём теперь к рассмотрению возможностей графического пользовательского интерфейса.

Обзор интерфейса

После подключения монитора, клавиатуры и мыши пользователь попадает в графический интерфейс тонкого клиента N400, внешний вид которого сильно зависит от версии микропрограммного обеспечения, установленного в устройстве.

На домашнем экране графического интерфейса пользователь может указать логин, пароль и имя домена, которые необходимо указать при подключении к Citrix-серверу. Нажатие на кнопку с изображением шестерёнки предоставляет возможность изменять настройки N400, тогда как круглая кнопка с изображением месяца и звёздочек активирует ждущий режим.

Для настройки тонкого клиента администратору доступны семь вкладок: Citrix, Preferences, Network, Security, Management, Peripherals и Information. Вкладка Citrix позволяет изменить параметры доступа к Citrix-инфраструктуре.

Изменить разрешение экрана и задержку его перевода в спящий режим, а также выбрать раскладку клавиатуры и задать параметры синхронизации времени можно с помощью подпунктов вкладки Preferences.

Вкладка Network управляет сетевыми параметрами тонкого клиента NComputing N400.

Изменять параметры доступа к различным вкладкам, управлять установленными сертификатами, разрешать или запрещать управление тонким клиентом с помощью VNC можно с использованием подпунктов вкладки Security. Также здесь пользователю доступны параметры настройки сквозной аутентификации с помощью Imprivata.

Изменить имя устройство, обновить прошивку, либо обеспечить подключение к центру управления vSpace можно во вкладке Management.

Параметры подключения периферийных устройств собраны в подпунктах вкладки Peripherals. Здесь пользователь может управлять подключением наушников и микрофона, принтера и сканера, а также другими COM и USB устройствами.

Краткая информация об устройстве представлена во вкладке Information.

На этом мы завершаем беглое рассмотрение возможностей графического интерфейса и переходим к тестированию тонкого клиента NComputing N400.

Тестирование

Первым тестом, с которого мы традиционно начинаем данный раздел, является установление времени загрузки устройства, под которым мы понимаем интервал времени, прошедший с момента подачи питания до получения первого эхо-ответа по протоколу ICMP. NComputing N400 загружается за 44 секунды. Мы считаем это приемлемым результатом.

Вторым тестом стала проверка защищённости тонкого клиента с помощью утилиты Positive Technologies XSpider 7.7 (Demo build 3100). Всего было обнаружено три открытых порта: TCP-22 (SSH), UDP-123 (NTP) и TCP-5900 (VNC remote desktop). Интересные обнаруженные сведения представлены ниже.

Нельзя не упомянуть об основных параметрах нашего тестового стенда.

Компонент ПК Ноутбук
Материнская плата ASUS Maximus V Extreme ASUS M60J
Процессор Intel Core i7 3770K 3.5 ГГц Intel Core i7 720QM 1.6 ГГц
Оперативная память DDR3 PC3-10700 SEC 32 Гбайта DDR3 PC3-10700 SEC 16 Гбайт
Сетевая карта Intel Gigabit CT Desktop Adapter Atheros AR8131
Операционная система Windows 2008 R2 x64 Rus Windows 7 x64 SP1 Rus

На тестовом ПК нами была развёрнута Citrix инфраструктура. Для виртуализации использовалась технология Microsoft Hyper-V. В виртуальной инфраструктуре мы пробовали работать с различными офисными приложениями, общаться в Skype, а также смотреть фильмы в HD-качестве. Ни в одном из сценариев использования N400 мы не испытывали проблем, кроме разве что просмотра высококачественных фильмов, где наблюдались редкие кратковременные замирания звуковой дорожки.

Тонкий клиент NComputing N400 позволяет подключать к себе не только наушники и микрофон, но также и разнообразные USB-устройства: принтеры, сканеры, флеш-карты. Мы решили подключить наш внешний жёсткий диск Transcend StoreJet 25M3 объёмом 750 Гбайт с разделом, отформатированным в файловую систему NTFS, и проверить скорости доступа к нему с гостевой операционной системы, для чего использовали утилиту Intel NASPT версии 1.7.1. К сожалению, тесты Office Productivity и Photo Album завершались ошибкой (на диаграмме для этих тестов стоит значение 0), однако мы не склонны считать это серьёзной проблемой. Так как полученные скорости нельзя назвать высокими, мы решили заменить N400 на тестовый ноутбук с установленным на нём приложением Citrix Receiver. Результаты этих измерений также представлены на диаграмме.

На этом мы завершаем раздел тестирования и переходим к подведению итогов.

Заключение

После тестирования тонкий клиент NComputing N400 оставил у нас смешанные чувства: с одной стороны, это небольшое элегантное устройство с лёгкой настройкой, с другой же стороны, настройка самой Citrix-инфраструктуры к числу лёгких не относится совершенно. Использовать Citrix-модели тонких клиентов мы бы могли рекомендовать тем организациям, в штате которых имеется высококлассный специалист по Citrix системам, либо уже развёрнута и успешно эксплуатируется соответствующая инфраструктура, потому что начальная подготовка среды для подключения N400 может оказаться весьма трудоёмким занятием. Пример подготовки соответствующих сервисов описан в инструкции, размещённой на сайте производителя.

К сильным сторонам тонкого клиента NComputing N400 можно отнести следующие.

  • Низкая стоимость владения.
  • Поддержка мультимедийных приложений.
  • Элегантный дизайн и небольшие размеры.
  • Поддержка высоких разрешений экрана (до 1920х1080).
  • Возможность централизованного управления.
  • Опция дистанционного обновления прошивки.
  • Низкое энергопотребление.
  • Возможность подключения периферийных устройств.

К сожалению, мы не можем не указать на недостатки устройства.

  • Сложность организации Citrix-инфраструктуры.
  • Не высокие скорости доступа к USB-устройствам.
  • Интерфейс устройства доступен только на английском языке.

На момент написания средняя цена тонкого клиента NComputing N400 в интернет магазинах Москвы составляла 5200 рублей.

Автор и редакция благодарят компанию Тайле и её технических специалистов за предоставленное оборудование и неоценимую помощь в процессе подготовки обзора.

Buffalo TeraStation 5600

Введение

По мере развития нашей тестовой лаборатории мы начинаем сотрудничество со всё большим количеством производителей сетевого оборудования. Совсем недавно к нам обратились представители японской компании Buffalo с предложением провести тестирование их продукции. По нашему мнению, компания Buffalo пока не очень известна российскому потребителю, поэтому мы решили восполнить этот пробел и представить нашим читателям обзор сетевого хранилища с шестью дисками Buffalo TeraStation 5600. Мы надеемся, что это не последнее тестирование оборудования данного производителя в нашей сетевой лаборатории, но пока мы приступаем к детальному рассмотрению модели TeraStation 5600.

Внешний вид

Сетевое хранилище Buffalo TeraStation 5600 выполнено в традиционном для подобных устройств чёрном металлическом корпусе, предназначенном для размещения на столе.

Большую часть лицевой стороны занимает пластиковая дверца с воздушным фильтром, за которой скрываются шесть корзин с дисками. Сама дверца может быть закрыта на ключ, для чего в неё вмонтирован замок. Кроме дисковых корзин за дверцей скрывается некий порт для инженеров производителя, он не предназначен для подключения пользовательских устройств.

Пожалуй, стоит подробнее остановиться на самих дисках. Производитель запрещает менять диски местами в хранилище, а также заменять их на произвольные накопители. Замена диска производится только в случае выхода его из строя, о чём свидетельствует красный световой индикатор справа от дисковой корзины, причём диски для замены должны быть приобретены непосредственно у компании Buffalo. Замена диска на произвольный накопитель является не гарантийным случаем и может приводить к тому, что хранилище попросту не загрузится. Однако даже в этом случае техническая поддержка производителя бесплатно произведёт все необходимые восстановительные работы.

Над дверцей на лицевой панели расположена панель управления, на которой присутствует ЖК-дисплей с клавишей переключения отображаемой информацией, кнопка включения/выключения устройства, световые индикаторы сетевых портов и состояния хранилища, порт USB 3.0. Также здесь расположена кнопка FUNCTION, используемая для копирования данных, отключения USB-накопителей, пересоздания RAID-массивов и настройки отказоустойчивости.

Верхняя и боковые поверхности хранилища ничем особенным не примечательны. Здесь лишь расположены небольшие вентиляционные отверстия.

На днище TeraStation 5600 размещены четыре круглые резиновые ножки для настольного размещения аппарата.

На задней стороне хранилища расположены два вентилятора диаметров 92 мм. Кроме них здесь присутствует разъём для подключения питания и наклейки с краткой информацией об устройстве. Также на задней стороне корпуса размещён переключатель для выбора загрузочного устройства, два интерфейса GigabitEthernet, два порта USB 3.0 и два порта USB 2.0.

Заглянем теперь внутрь Buffalo TeraStation 5600.

Аппаратная платформа

Электронная начинка сетевого хранилища Buffalo TeraStation 5600 состоит из пяти плат: одной материнской, одной платы блока питания и трёх плат, выполняющих вспомогательные функции. К таким функциям можно отнести вывод информации на ЖК дисплей на передней панели устройства, либо обеспечение подключения жёстких дисков к материнской плате.

На материнской плате расположен слот с установленной планкой оперативной памяти. Сама оперативная память построена на восьми чипах Samsung K4b2G0846D с объёмом 256 Мбайт, таким образом, вся планка обеспечивает TeraStation 5600 оперативной памятью объёмом 2 Гбайта.

Основные элементы расположены на материнской плате с одной стороны. Исключение, разве что, составляет контроллер RS-232 Texas Instruments MB3243I.

Значительная часть лицевой стороны материнской платы скрыта под большим чёрным радиатором, обеспечивающим охлаждение для процессора Intel Atom D2700 и южного моста Intel AF82801JIR. Функции более медленного ввода/вывода возложены на микросхему iTE IT8721F.

Поддержка портов USB 3.0 обеспечивается чипом Renesas D720201. Два контроллера Intel WG82574L отвечают за работу двух сетевых интерфейсов Gigabit Ethernet. Мы не обнаружили на плате специализированного RAID-контроллера, что означает, что все функции по поддержке массивов ложатся на южный мост.

На этом мы завершаем изучение аппаратной части сетевого хранилища Buffalo TeraStation 5600 и переходим к рассмотрению его программных возможностей.

Обновление прошивки и утилиты

Смену версий микропрограммного обеспечения можно провести с помощью веб-интерфейса (Управление-Обновление) или специализированного программного обеспечения. Для обновления через веб-интерфейс необходимо наличие у хранилища доступа к глобальной сети.

В случае использования утилиты TSUpdater пользователю необходимо подключиться в тот же L2-сегмент сети, где находится хранилище, выполнить поиск устройств со старой версией прошивки и приступить непосредственно к обновлению. Весь процесс смены версии микропрограммного обеспечения полностью автоматизирован и не требует от пользователя специальной квалификации.

Весь процесс обновления занимает приблизительно 17 минут, в течение которых устройство недоступно пользователям.

При выполнении перезагрузки TeraStation 5600 без созданного RAID-массива, устройство переходит в EM Mode, восстановление из которого может быть произведено с помощью утилиты TSUpdater.

Кроме утилиты TSUpdater в состав набора утилит входят следующие программы: NAS Navigator 2 (для обнаружения сетевых хранилищ TeraStation в локальной сети и изменения их сетевых настроек), iSCSI Hard Disk Connection Tool (для подключения удалённого iSCSI-ресурса) и TurboPC EX (для увеличения скорости доступа к данным, размещённым на хранилище).

Перейдём теперь к рассмотрению возможностей веб-интерфейса сетевого хранилища Buffalo TeraStation 5600.

Обзор веб-интерфейса

Для доступа к веб-интерфейсу устройства можно использовать любой современный браузер. При входе требуется ввести логин и пароль. Управление хранилищем с помощью веб-интерфейса может производиться в простом и расширенном режимах. Для доступа к режиму простого администрирования необходимо во всплывающем окне для ввода пароля нажать кнопку «Простое админис». Здесь пользователь может управлять личными облаками, задавать права доступа к ресурсам, изменять параметры работы RAID-массива, осуществлять подключение к Active Directory, выполнять резервное копирование, выполнять поиск документов на хранилище, а также изменять пароль администратора.

Стоит отметить, что веб-интерфейс доступен пользователям на семнадцати языках.

Из любого режима администрирования пользователь может посмотреть справку и краткую информацию о хранилище, а также выключить его или перезагрузить.

В режиме расширенного администрирования пользователь попадает в меню «Совместный доступ к файлу», где можно управлять папками, пользователями и их группами, а также файловыми протоколами доступа к данным, хранящимся на устройстве. Приятной функцией явилась возможность антивирусного сканирования пользовательских данных.

Стоит отметить, что TeraStation 5600 запрашивает подтверждение на выполнение практически любого действия, связанного с изменением настроек.

Меню «Диски» предоставляет администратору возможность проверки и форматирования отдельных дисков или дискового массива, создания RAID-массива. Здесь же представлены настройки доступа к хранилищу по протоколу iSCSI.

Включение, отключение и настройка вспомогательных служб доступа к данным производится с помощью меню «Службы». К числу таких служб относятся следующие: DLNA, iTunes, Squeezebox, веб-сервер и сервер печати, MySQL-сервер.

Доступ к хранилищу из удалённой сети можно настроить с помощью меню «Поддержка веб-сервиса».

Управление дополнительными приложениями (BitTorrent, TeraSearch) и антивирусным модулем производится в меню «Приложения». Также здесь производится настройка камер видеонаблюдения, которые могут сохранять свои данные в определённом локальном каталоге.

Нам бы хотелось чуть подробнее остановиться на функции антивирусной проверки. Нас очень заинтересовала данная возможность, однако мы так и не смогли её правильно настроить и использовать из-за того, что программное обеспечение TrendMicro NAS Security не имело ни русского, ни даже английского интерфейса. По умолчанию сетевые хранилища TeraStation поставляются с ознакомительной версией антивирусного программного обеспечения, работающего в течение ограниченного периода и не имеющего ни русского, ни английского интерфейсов. При необходимости пользователь TeraStation 5600 может приобрести соответствующую лицензию для полноценного использования дополнительного функционала антивирусного модуля.

Меню «Сеть» предоставляет администратору возможность изменять IP-адреса интерфейсов, добавлять хранилище в Windows-домен, изменять параметры работы протокола SNMP, выполнять объединение физических интерфейсов, а также устанавливать ограничения для доступа с помощью определённых протоколов через тот или иной сетевой интерфейс.

Все настройки, связанные с резервированием пользовательских данных собраны в меню «Резервное копирование». Также здесь можно настроить функцию Failover, позволяющую при наличии двух устройств TeraStation защититься от сбоя одного из них.

С помощью меню «Управление» администратор может изменять параметры времени и включать синхронизацию с внешними серверами NTP, настраивать рассылку уведомлений по электронной почте, получать доступ к журнальной информации, изменять параметры перехода устройства в спящий режим, следить за состояние ИБП, управлять пользовательскими настройками, выполнять обновление прошивки, а также изменять параметры защищённого доступа к хранилищу.

На этом мы завершаем рассмотрение возможностей веб-интерфейса сетевого хранилища Buffalo TeraStation 5600 и переходим к тестированию.

Тестирование

Первым традиционным тестом, с которого мы обычно начинаем данный раздел, является определение времени загрузки устройства, под которым мы понимаем интервал времени, прошедший с момента подачи питания на устройство до получения первого эхо-ответа по протоколу ICMP. Сетевое хранилище Buffalo TeraStation 5600 загружается за 107 секунд. Мы считаем это приемлемым результатом.

Вторым традиционным тестом стала проверка защищённости устройства, проводимая с помощью сканера сетевой безопасности Positive Techologies XSpider 7.7 (Demo build 3100). Всего было обнаружено 13 открытых портов: TCP-22 (SSH), TCP-80 (HTTP), UDP-137 (NetBIOS Name), TCP-139 (NetBIOS Samba), TCP-443 (HTTP SSL), TCP-445 (Microsoft DS), TCP-548 (afpovertcp), TCP-873 (RSync), TCP-3260 (iscsi-target), TCP-8873 (unknown), TCP-9050 (HTTP), TCP-22939 (unknown) и TCP-33456 (unknown). Наиболее интересные из обнаруженных данных представлены ниже.

Перед началом нагрузочных тестов мы решили предоставить читателям основные параметры нашего тестового стенда.

Компонент ПК
Материнская плата ASUS Maximus V Extreme
Процессор Intel Core i7 3770K 3.5 ГГц
Оперативная память DDR3 PC3-10700 SEC 32 Гбайта
Сетевая карта Intel Gigabit CT Desktop Adapter
Intel Gigabit 82579V
Операционная система Windows 7 x64 SP1 Rus

Настала пора, пожалуй, самой ожидаемой части нашего обзора – тестированию производительности сетевого хранилища Buffalo TeraStation 5600. Сначала мы решили измерить скорости доступа к данным, хранящимся на разных RAID-массивах, с помощью протоколов SMB и iSCSI. Измерения проводились с помощью утилиты Intel NASPT 1.7.1.

Так как тестируемое сетевое хранилище позволяет шифровать данные, размещённые на жёстких дисках, мы решили установить скорость доступа к зашифрованным данным по тем же протоколам – SMB и iSCSI.

К USB-портам TeraStation 5600 можно подключать внешние жёсткие диски. Мы последовательно подключили наш накопитель Transcend StoreJet 25M3 объёмом 750 Гбайт с разделом, отформатированным в файловую систему NTFS сначала в порт USB 3.0, а затем в USB 2.0. Результаты измерений скорости представлены на диаграмме ниже.

Также мы решили выяснить, как влияет файловая система на скорости доступа к данным, размещённым на внешнем жёстком диске, для чего подключили наш накопитель к порту USB 3.0 и последовательно форматировали его в разные файловые системы.

Ещё одним тестом, который мы решили провести с данным сетевым хранилищем, стала проверка работоспособности функции агрегации сетевых интерфейсов. Buffalo TeraStation 5600 оснащён двумя физическими гигабитными интерфейсами, которые могут быть объединены в один логический с полосой пропускания до 4 Гбит/с в режиме полного дуплекса, то есть по 2 Гбит/с в каждую сторону. Мы подключили тестируемое сетевое хранилище обоими интерфейсами к коммутатору Cisco Catalyst 2960, имеющемуся в нашей тестовой лаборатории, и произвели группирование портов на стороне хранилища. В качестве режима объединения был выбран «Данные динамической связи» (Dynamic link aggregation) с использованием протокола LACP. Наверное, это наиболее распространённый способ агрегирования физических интерфейсов. Из русскоязычного названия нам было совершенно не ясно, о каком точно методе агрегирования идёт речь.

Соответствующая настройка потребовалась и со стороны коммутатора. Ниже приведены настройки одного из физических портов, участвующих в агрегации.

interface GigabitEthernet0/1
switchport access vlan 2
switchport mode access
channel-protocol lacp
channel-group 1 mode active

Теперь нам хотелось бы предостеречь наших читателей от необдуманного использования агрегации с помощью LACP, пояснив некоторые принципы его работы. При необходимости передачи кадра через логический интерфейс, построенный с помощью LACP, не происходит разбивки кадра на части, но выбор одного физического канала для отправки. Выбор такого канала производится на основе хеш-таблицы, построенный на базе адресов отправителя, получателя или пары отправителя-получателя. Но что это за адреса? Сетевое хранилище Buffalo TeraStation не позволяет выбрать, какие именно адреса будут использоваться. Для построения хеш-таблицы могут быть использованы MAC-адреса, IP-адреса или же номера портов TCP или UDP.

Соответствующая настройка доступна и на коммутаторе. В зависимости от модели и версии микропрограммного обеспечения используемого коммутатора могут быть доступны те или иные варианты построения хеш-таблицы. Так, например, для имеющегося у нас сетевого устройства Cisco Catalyst 2960 построение хеш-таблицы возможно лишь на основании MAC или IP-адресов.

Switch#sho etherchannel load-balance
EtherChannel Load-Balancing Configuration:
src-dst-ip
EtherChannel Load-Balancing Addresses Used Per-Protocol:
Non-IP: Source XOR Destination MAC address
IPv4: Source XOR Destination IP address
IPv6: Source XOR Destination IP address
Switch(config)#port-channel load-balance ?
dst-ip Dst IP Addr
dst-mac Dst Mac Addr
src-dst-ip Src XOR Dst IP Addr
src-dst-mac Src XOR Dst Mac Addr
src-ip Src IP Addr
src-mac Src Mac Addr

Агрегация канала с использованием протокола LACP обеспечивает статистическую балансировку, то есть она будет хорошо работать при наличии большого количества источников и получателей трафика. Поэтому в следующем тесте мы использовали iSCSI MultiPath, а не агрегацию с помощью LACP, для преодоления возможностей одного физического сетевого интерфейса, чтобы исключить некоторую неопределённость, вносимую агрегацией.

При размещении сетевого хранилища TeraStation 5600 в одной виртуальной сети с конечными пользователями можно использовать балансировку как по MAC-адресам, так и по IP-адресам. Однако если конечные пользователи отделены от хранилища маршрутизатором, то использование балансировки на основе MAC-адресов уже не может быть названо эффективным, так как проходящие через агрегированный канал кадры будут иметь MAC-адреса хранилища и маршрутизатора, то есть всегда будет выбираться один физический интерфейс для передачи. Выяснить, какой физический интерфейс будет выбран коммутатором для передачи реальных пользовательских данных можно с помощью команды test. К сожалению, соответствующей команды на хранилище не предусмотрено.

Switch#test etherchannel load-balance interface port-channel 1 ip 192.168.2.5 192.168.2.3
Would select Gi0/1 of Po1

Мы создали массив RAID0 и решили сравнить скорости доступа к нему по протокол iSCSI в режиме одного пути и с использованием iSCSI MultiPath. Из приведённой ниже диаграммы видно, что на некоторые тесты iSCSI MultiPath оказывает существенное влияние, заметно повышая скорость передачи данных, однако в некоторых других тестах (например, FileCopyFromNAS) прирост скорости не столь значительный, что, вероятно, вызвано уже не ограничениями физического интерфейса.

На этом мы завершаем раздел тестирования и переходим к подведению итогов.

Заключение

Протестированное сетевое хранилище Buffalo TeraStation 5600 продемонстрировало хорошие скорости передачи данных и в целом произвело приятное впечатление, однако ряд ситуаций всё-таки вызвал у нас недоумение. Речь, например, идёт о запрете производителем пользователю самостоятельно заменять жёсткие диски. Нам кажется излишней строгостью подобный запрет, к тому же мы впервые сталкиваемся с подобным ограничением, так как все протестированные нами ранее модели сетевых хранилищ других производителей позволяли устанавливать любые совместимые жёсткие диски.

Сильные стороны Buffalo TeraStation 5600 перечислены ниже.

  • Высокие скорости доступа к данным.
  • Возможность горячего резервирования всего устройства.
  • Использованы крупные вентиляторы.
  • Возможность управления как с помощью HTTP, так и с помощью HTTPS.
  • Наличие модуля антивирусной проверки (ознакомительная версия).
  • Поддержка доменов Windows.
  • Возможность опроса как локального, так и удалённого ИБП.
  • Поддержка агрегирования сетевых интерфейсов.
  • Наличие контекстной справки для каждой страницы веб-интерфейса.
  • Поддержка работы в пиринговых сетях.

К сожалению, мы не можем не указать и на обнаруженные недостатки.

  • Незначительно расползается русскоязычный веб-интерфейс.
  • Неправильные часовые пояса для стран СНГ.
  • Не полностью переведён веб-интерфейс.
  • Отсутствие поддержки IPv6.
  • Длительная процедура обновления прошивки.
  • Отсутствие гибкости при выборе жёстких дисков для замены.

На момент написания статьи рекомендованная розничная цена на TeraStation 5600 значительно зависела от модели: TS5600D0606-EU (с шестью дисками по 1 Тбайту) стоила 59290 руб., TS5600D1206-EU (шесть дисков по 2 Тбайта) – 74490 руб., TS5600D1806-EU (шесть дисков по 3 Тбайта) – 88590 руб., TS5600D2406-EU (шесть дисков по 4 Тбайта) – 116990 руб.

Современное сетевое хранилище с шестью дисками, или NETGEAR ReadyNAS 516

Введение

Сетевые хранилища компании NETGEAR не первый раз становятся объектом рассмотрения нашей сетевой лаборатории. Более года назад мы тестировали стоечное хранилище ReadyNAS 2100, а ещё раньше – ReadyNAS Ultra 2 Plus, предназначенное для размещения на столе. В этот раз мы получили от производителя настольное устройство с шестью дисками – ReadyNAS 516, правда, без самих дисков. NETGEAR ReadyNAS 516 является флагманов настольных сетевых хранилищ данного производителя линейки 2013 года. Приступим теперь к его изучению.

Внешний вид

Внешний вид ReadyNAS 516 вполне традиционен для подобных устройств – тёмный металлический корпус в форме параллелепипеда, геометрические размеры которого составляют 288х192х259 мм. Верхняя и боковые стороны ничем не примечательны, а на днище располагаются четыре резиновые ножки и наклейка с краткой информацией об устройстве.

Большую часть перфорированной лицевой стороны закрывает магнитная дверца со светодиодами и ЖК-дисплеем внутри. Передняя часть дверцы сенсорная, на ней нет кнопок, но всё управление производится с помощью прикосновений. Снизу лицевой панели сиротливо располагается USB-порт.

За дверцей расположены шесть корзин для установки жёстких дисков 2.5 или 3.5 дюйма с интерфейсом SATA, а также кнопка включения/выключения питания устройства. Допускается подключение SSD накопителей.

Сами корзины несколько необычны, - мы ещё не видели такого способа монтажа жёстких дисков: по бокам металлической корзинки размещены выдвигаемые пластиковые полозья, к которым (в выдвинутом состоянии) и крепится диск, после чего полозья с диском задвигаются обратно в корзину. Кроме этого на защёлке корзинки расположен переключатель, предотвращающий случайное отключение диска. Вся установка диска в корзину производится без использования винтов.

Значительную часть задней стороны занимает вентилятор 120 мм. Мы считаем это хорошим решением, так как использование большого вентилятора позволяет снизить уровень производимого устройством шума. Справедливости ради стоит отметить, что в корпусе всё-таки присутствует ещё и маленький вентилятор 40 мм в блоке питания.
Кроме вентилятора здесь расположено три eSATA-порта, два разъёма USB 3.0, два сетевых интерфейса, порт HDMI, разъём для подключения питания с выключателем, Кенсингтонский замок и слот для установки дополнительной карты расширения.

На этом мы завершаем рассмотрение внешнего вида ReadyNAS 516 и переходим к изучению его электронной начинки.

Аппаратная платформа

Внутри корпуса ReadyNAS 516 расположены две зелёные текстолитовые платы (без учёта плат в дверце и блоке питания). Одна из них выполняет лишь вспомогательные функции, являясь переходником для более удобного подключения жёстких дисков.

К материнской плате над процессором крепится внушительного вида радиатор. Здесь используется пассивная схема охлаждения, то есть на процессоре дополнительный вентилятор не установлен, хотя разъём для его питания на плате всё же присутствует. Для данного сетевого хранилища выбран процессор Intel Ivy Bridge Core i3 с частотой 3.3ГГц. Несколько неожиданно было увидеть в таком хранилище полноценный процессор Intel третьего поколения. Стоит, кстати, сказать, что основные элементы размещены на материнской плате с одной стороны.

Сетевое хранилище NETGEAR ReadyNAS 516 несёт на борту 256 Мбайт флеш-памяти в виде чипа Micron 29F2G08 с контроллером Silicon Motion SM321QF. Оперативная память DDR3 установлена отдельной планкой M3CW-4GHJ3C0C-E, объём которой составляет 4 Гбайта. Производителем оперативной памяти является компания innoDisk. За медленный ввод/вывод отвечает чип Nuvoton NCT5577D. В качестве южного моста использован чип с маркировкой E78190. Мы уже видели такой чип у другого производителя сетевых хранилищ. На плате расположено два хост-контроллера Silicon Image Sil3132CNU, обеспечивающие поддержку портов eSATA, а чип D720202 обеспечивает поддержку двух портов USB3.0. За работу Gigabit Ethernet интерфейсов отвечают два чипа Intel WG82574L. Функционирование порта HDMI обеспечивается чипом Parade PS8171.

На этом мы завершаем рассмотрение аппаратной платформы хранилища и переходим к его программным возможностям.

Подготовка к работе

После включения нового устройства в сеть доступ к нему можно получить из общего с ним сегмента с помощью браузера путём обращения к страничке https://readycloud.netgear.com. Другим способом обнаружения хранилища является использование традиционной утилиты RAIDar.

С помощью которой можно не только обнаружить устройство в сети, но и перейти к его настройке, которая производится с помощью любого современного браузера. Логин и пароль по умолчанию равны admin и password.

После ввода корректных учётных данных пользователь попадает на страничку с мастером, производящим первоначальную настройку хранилища.

После того, как все настройки выполнены, можно уже приступать непосредственно к администрированию.

Перед началом работы мы бы рекомендовали пользователям провести обновление прошивки до одной из последних версий. Смена версий микропрограммного обеспечения может быть произведена в ручном или полуавтоматическом режимах. Для автоматического поиска новой прошивки необходимо обратиться к пункту «Настройки» меню «Система», где нажать кнопку «Проверить обновления».

Для обновления прошивки вручную нужно на той же страничке нажать кнопку «Установить микрокод», после чего выбрать соответствующий файл.

Весь процесс обновления занимает около двух минут (без учёта времени, необходимого на загрузку прошивки с веб-сайта производителя). Убедиться в успешности процедуры обновления можно с помощью пункта «Обзор» меню «Система».

Перейдём теперь к рассмотрению возможностей веб-интерфейса устройства.

Обзор веб-интерфейса

Для входа в веб-интерфейс сетевого хранилища NETGEAR ReadyNAS 516 подойдёт любой современный браузер. При входе необходимо ввести логин и пароль, которые были указаны пользователем при подготовке хранилища к работе.

После ввода корректных учётных данных пользователь попадает на стартовую страничку устройства (Система-Обзор), где отображается краткая информация о самом хранилище, установленных приложениях и созданном дисковом массиве. Также здесь пользователь может настроить синхронизации сетевого хранилища с внешними серверами времени. К сожалению, информация о серверах, заданных в кириллическом формате не сохранялась.

Подпункт «Тома» меню «Система» отображает сведения о созданных массивах и установленных дисках.

Подпункт «Производительность» снабдит администратора информацией о состоянии дисков, температуре и скорости вращения вентилятора, занятости дискового пространства, использовании сети.

Включить определённые сервисы, обновить микропрограммное обеспечение, выполнить резервное копирование, а также управлять питанием хранилища можно с помощью подпункта «Настройки».

Информация обо всех происходящих в системе событиях собрана в подпункте «Журналы и уведомлен…».

Подпункт «Общие ресурсы» меню «Общие ресурсы» отображает список созданных на хранилище папок и LUN. Здесь же можно создать новый объект или просмотреть свойства уже существующего, а также управлять параметрами доступа пользователей через различные сетевые протоколы.

Просмотреть содержимое общедоступных ресурсов можно с помощью подпункта «Обзор».

Все моментальные снимки общедоступных ресурсов отображаются в подпункте «Временная шкала». С помощью этого подпункта администратор может восстановить интересующие его пользовательские данные.

Создать пользовательскую группу, новый LUN, а также назначить LUN пользовательской группе можно с помощью меню «iSCSI».

Управление локальными пользователями и группами производится с помощью подпунктов меню «Учетные записи». Приятной опцией стала возможность связи сетевого хранилища NETGEAR ReadyNAS 516 с корпоративной базой Active Directory.

Настройка сетевых карт хранилища, а также объединение их в один виртуальный канал производится с помощью меню «Сеть».

Список предустановленных приложений, а также тех, что доступны для загрузки и установки приведён в подпунктах меню «Приложения». Здесь же пользователь может выгрузить на хранилище и установить собственное приложение.

Сетевое хранилище NETGEAR ReadyNAS 516 поддерживает работу с облачными сервисами ReadyNAS Remote, ReadyDrop, ReadyNAS Replicate, ReadyCLOUD, доступ к настройке которых можно получить из меню «Облако».

Управление заданиями по резервному копированию пользовательских данных производится с помощью подпунктов меню «Резервное копирование».

Меню «Профиль» позволяет выбрать язык веб-интерфейса хранилища, а также перейти к изменению административных параметров.

На этом мы завершаем раздел, посвящённый веб-интерфейсу, и переходим к изучению возможностей командной строки.

Командная строка

По умолчанию доступ к командной строке сетевого хранилища NETGEAR ReadyNAS 516 закрыт. Для его открытия администратор может воспользоваться несколькими различными способами. Одним из таких способов является запуск сервиса SSH в группе «Планы обслуживания», находящейся в подпункте «Настройки» меню «Система.

Вторым доступным способом открытия консольного доступа является использование плагина Shell in a box, доступ к которому можно получить в подпункте «Установлено» меню «Приложения». При использовании данного плагина запускается эмулятор командной строки в браузере. Также возможна установка каких-либо иных модулей расширения с соответствующим функционалом.

Отдельно хотелось бы отметить, что вне зависимости от выбранного способа доступа к командной строке хранилища производитель может отказать в гарантийном обслуживании устройства.

В системе Debian 4.7.2-5 установлена библиотека BusyBox версии 1.20.2.

root@nas-27-40-68:/# uname -a
Linux nas-27-40-68 3.0.79.RNx86_64.2.1 #1 SMP Tue May 28 22:30:44 PDT 2013 x86_64 GNU/Linux
root@nas-27-40-68:/# cat /proc/version
Linux version 3.0.79.RNx86_64.2.1 (jenkins@blocks) (gcc version 4.7.2 (Debian 4.7.2-5) ) #1 SMP Tue May 28 22:30:44 PDT 2013
root@nas-27-40-68:/# busybox
BusyBox v1.20.2 (Debian 1:1.20.0-7) multi-call binary.
Copyright (C) 1998-2011 Erik Andersen, Rob Landley, Denys Vlasenko
and others. Licensed under GPLv2.
See source distribution for full notice.
Usage: busybox [function] [arguments]...
or: busybox --list[-full]
or: busybox --install [-s] [DIR]
or: function [arguments]...
BusyBox is a multi-call binary that combines many common Unix
utilities into a single executable. Most people will create a
link to busybox for each function they wish to use and BusyBox
will act like whatever it was invoked as.
Currently defined functions:
[, [[, adjtimex, ar, arp, arping, ash, awk, basename, blockdev, brctl,
bunzip2, bzcat, bzip2, cal, cat, chgrp, chmod, chown, chroot, chvt,
clear, cmp, cp, cpio, cttyhack, cut, date, dc, dd, deallocvt, depmod,
df, diff, dirname, dmesg, dnsdomainname, dos2unix, du, dumpkmap,
dumpleases, echo, egrep, env, expand, expr, false, fgrep, find, fold,
free, freeramdisk, ftpget, ftpput, getopt, getty, grep, groups, gunzip,
gzip, halt, head, hexdump, hostid, hostname, httpd, hwclock, id,
ifconfig, init, insmod, ionice, ip, ipcalc, kill, killall, klogd, last,
less, ln, loadfont, loadkmap, logger, login, logname, logread, losetup,
ls, lsmod, lzcat, lzma, md5sum, mdev, microcom, mkdir, mkfifo, mknod,
mkswap, mktemp, modinfo, modprobe, more, mount, mt, mv, nameif, nc,
netstat, nslookup, od, openvt, patch, pidof, ping, ping6, pivot_root,
poweroff, printf, ps, pwd, rdate, readlink, realpath, reboot, renice,
reset, rev, rm, rmdir, rmmod, route, rpm, rpm2cpio, run-parts, sed,
seq, setkeycodes, setsid, sh, sha1sum, sha256sum, sha512sum, sleep,
sort, start-stop-daemon, stat, strings, stty, swapoff, swapon,
switch_root, sync, sysctl, syslogd, tac, tail, tar, taskset, tee,
telnet, test, tftp, time, timeout, top, touch, tr, traceroute,
traceroute6, true, tty, udhcpc, udhcpd, umount, uname, uncompress,
unexpand, uniq, unix2dos, unlzma, unxz, unzip, uptime, usleep,
uudecode, uuencode, vconfig, vi, watch, watchdog, wc, wget, which, who,
whoami, xargs, xz, xzcat, yes, zcat

С помощью команды ps посмотрим, какие процессы запущены на устройстве в данный момент. Утилита top отобразит данные по текущей работе запущенных процессов.

root@nas-27-40-68:/# ps -A
PID TTY TIME CMD
1 ? 00:00:01 systemd
2 ? 00:00:00 kthreadd
3 ? 00:00:00 ksoftirqd/0
4 ? 00:00:00 kworker/0:0
6 ? 00:00:00 migration/0
7 ? 00:00:00 watchdog/0
8 ? 00:00:00 migration/1
9 ? 00:00:00 kworker/1:0
10 ? 00:00:00 ksoftirqd/1
11 ? 00:00:00 kworker/0:1
12 ? 00:00:00 watchdog/1
13 ? 00:00:00 migration/2
15 ? 00:00:00 ksoftirqd/2
16 ? 00:00:00 watchdog/2
17 ? 00:00:00 migration/3
18 ? 00:00:00 kworker/3:0
19 ? 00:00:00 ksoftirqd/3
20 ? 00:00:00 watchdog/3
21 ? 00:00:00 khelper
221 ? 00:00:00 sync_supers
223 ? 00:00:00 bdi-default
225 ? 00:00:00 kblockd
399 ? 00:00:00 khubd
406 ? 00:00:00 md
510 ? 00:00:00 rpciod
548 ? 00:00:00 khungtaskd
553 ? 00:00:00 kswapd0
618 ? 00:00:00 fsnotify_mark
636 ? 00:00:00 nfsiod
656 ? 00:00:00 xfs_mru_cache
658 ? 00:00:00 xfslogd
659 ? 00:00:00 xfsdatad
660 ? 00:00:00 xfsconvertd
669 ? 00:00:00 crypto
684 ? 00:00:00 kthrotld
701 ? 00:00:01 kworker/1:1
704 ? 00:00:00 kworker/2:1
707 ? 00:00:00 kworker/3:1
776 ? 00:00:00 scsi_eh_0
779 ? 00:00:00 scsi_eh_1
782 ? 00:00:00 scsi_eh_2
785 ? 00:00:00 scsi_eh_3
788 ? 00:00:00 scsi_eh_4
791 ? 00:00:00 scsi_eh_5
807 ? 00:00:00 scsi_eh_6
810 ? 00:00:00 scsi_eh_7
813 ? 00:00:00 kworker/u:8
814 ? 00:00:00 kworker/u:9
821 ? 00:00:00 scsi_eh_8
824 ? 00:00:00 scsi_eh_9
831 ? 00:00:00 target_completi
832 ? 00:00:00 LIO_rd_mcp
833 ? 00:00:00 iscsi_ttx
834 ? 00:00:00 iscsi_trx
835 ? 00:00:00 iscsi_ttx
836 ? 00:00:00 iscsi_trx
837 ? 00:00:00 iscsi_ttx
838 ? 00:00:00 iscsi_trx
839 ? 00:00:00 iscsi_ttx
840 ? 00:00:00 iscsi_trx
892 ? 00:00:00 rc0
1136 ? 00:00:00 kworker/2:2
1213 ? 00:00:00 md0_raid1
1221 ? 00:00:00 md1_raid1
1334 ? 00:00:00 btrfs-worker-1
1335 ? 00:00:00 btrfs-genwork-1
1336 ? 00:00:00 btrfs-submit-1
1337 ? 00:00:00 btrfs-delalloc-
1338 ? 00:00:00 btrfs-fixup-1
1339 ? 00:00:00 btrfs-endio-1
1343 ? 00:00:00 btrfs-freespace
1344 ? 00:00:00 btrfs-delayed-m
1345 ? 00:00:00 btrfs-cache-1
1346 ? 00:00:00 btrfs-readahead
1347 ? 00:00:00 btrfs-cleaner
1348 ? 00:00:00 btrfs-transacti
1366 ? 00:00:00 btrfs-endio-met
1532 ? 00:00:00 systemd-journal
1535 ? 00:00:00 udevd
1551 ? 00:00:00 md127_raid1
1808 ? 00:00:00 btrfs-worker-1
1821 ? 00:00:00 btrfs-genwork-1
1822 ? 00:00:00 btrfs-submit-1
1824 ? 00:00:00 btrfs-delalloc-
1825 ? 00:00:00 btrfs-fixup-1
1826 ? 00:00:00 btrfs-endio-1
1828 ? 00:00:00 btrfs-endio-met
1963 ? 00:00:00 btrfs-endio-wri
1964 ? 00:00:00 btrfs-freespace
1965 ? 00:00:00 btrfs-delayed-m
1966 ? 00:00:00 btrfs-cache-1
1967 ? 00:00:00 btrfs-readahead
1974 ? 00:00:00 udevd
2179 ? 00:00:00 btrfs-cleaner
2180 ? 00:00:00 btrfs-transacti
2200 ? 00:00:00 mdadm
2208 ? 00:00:00 acpid
2213 ? 00:00:00 cron
2221 ? 00:00:00 systemd-logind
2224 ? 00:00:00 dbus-daemon
2255 tty1 00:00:00 agetty
2256 ttyS0 00:00:00 agetty
2258 ? 00:00:00 btrfs-endio-met
2287 ? 00:00:00 flush-btrfs-4
2535 ? 00:00:00 apache2
2541 ? 00:00:25 readynasd
2599 ? 00:00:00 minidlnad
2601 ? 00:00:00 netatalk
2602 ? 00:00:00 afpd
2603 ? 00:00:00 cnid_metad
2604 ? 00:00:00 leafp2p
2620 ? 00:00:00 minidlnad <defunct>
2622 ? 00:00:00 leafp2p
2632 ? 00:00:00 smbd
2686 ? 00:00:00 udevd
2738 ? 00:00:00 fvbackup-q
2740 ? 00:00:00 rcbrokerd
2751 ? 00:00:00 readystatsd
2969 ? 00:00:00 smbd
3447 ? 00:00:00 btrfs-endio-met
5831 ? 00:00:00 sshd
5837 ? 00:00:00 apache2
5838 ? 00:00:00 apache2
5839 ? 00:00:00 apache2
5840 ? 00:00:00 apache2
5841 ? 00:00:00 apache2
6049 ? 00:00:00 apache2
6231 ? 00:00:00 connmand
6257 ? 00:00:00 apache2
6312 ? 00:00:00 nmbd
6314 ? 00:00:00 avahi-daemon
6316 ? 00:00:00 avahi-daemon
6317 ? 00:00:00 raidard
6320 ? 00:00:00 minissdpd
6346 ? 00:00:00 rcbrokerd
6393 ? 00:00:00 apache2
6596 ? 00:00:00 btrfs-endio-wri
6643 ? 00:00:00 sshd
6655 pts/0 00:00:00 bash
11397 ? 00:00:00 btrfs-endio-met
13101 pts/0 00:00:00 ps
root@nas-27-40-68:/# top
top - 10:14:54 up 1:05, 1 user, load average: 0.83, 0.65, 0.62
Tasks: 141 total, 1 running, 139 sleeping, 0 stopped, 1 zombie
%Cpu(s): 0.1 us, 0.2 sy, 0.0 ni, 99.5 id, 0.2 wa, 0.0 hi, 0.0 si, 0.0 st
KiB Mem: 3941428 total, 260868 used, 3680560 free, 1408 buffers
KiB Swap: 523964 total, 0 used, 523964 free, 167256 cached
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
2541 root 20 0 433m 29m 6960 S 6.6 0.8 0:25.43 readynasd
1 root 20 0 45220 4216 1996 S 0.0 0.1 0:01.44 systemd
2 root 20 0 0 0 0 S 0.0 0.0 0:00.00 kthreadd
3 root 20 0 0 0 0 S 0.0 0.0 0:00.01 ksoftirqd/0
4 root 20 0 0 0 0 S 0.0 0.0 0:00.08 kworker/0:0
6 root rt 0 0 0 0 S 0.0 0.0 0:00.00 migration/0
7 root rt 0 0 0 0 S 0.0 0.0 0:00.00 watchdog/0
8 root rt 0 0 0 0 S 0.0 0.0 0:00.00 migration/1
9 root 20 0 0 0 0 S 0.0 0.0 0:00.00 kworker/1:0
10 root 20 0 0 0 0 S 0.0 0.0 0:00.00 ksoftirqd/1
11 root 20 0 0 0 0 S 0.0 0.0 0:00.18 kworker/0:1
12 root rt 0 0 0 0 S 0.0 0.0 0:00.00 watchdog/1
13 root rt 0 0 0 0 S 0.0 0.0 0:00.00 migration/2
15 root 20 0 0 0 0 S 0.0 0.0 0:00.01 ksoftirqd/2
16 root rt 0 0 0 0 S 0.0 0.0 0:00.00 watchdog/2
17 root rt 0 0 0 0 S 0.0 0.0 0:00.00 migration/3
18 root 20 0 0 0 0 S 0.0 0.0 0:00.00 kworker/3:0

Выясним, какие файлы расположены в каталогах /bin, /sbin, /usr/bin и /usr/sbin. Их список мы представили в отдельном файле.

Перейдём теперь в каталог /proc и посмотрим, какие файлы здесь размещены, а также выясним время работы операционной системы и её среднюю загруженность, получим информацию об установленном процессоре и количестве оперативной памяти. В принципе, время работы и среднюю загруженность системы также можно получить с помощью системного вызова uptime.

root@nas-27-40-68:/proc# ls
1 1347 1963 2255 3 6312 704 835 driver net
10 1348 1964 2256 3447 6314 707 836 execdomains pagetypeinfo
11 1366 1965 2258 399 6316 776 837 filesystems partitions
1136 13833 1966 2287 4 6317 779 838 fs scsi
11397 15 1967 2535 406 6320 782 839 interrupts self
12 1532 1974 2541 510 6346 785 840 iomem slabinfo
1213 1535 2 2599 548 636 788 892 ioports softirqs
1221 1551 20 2601 553 6393 791 9 irq stat
13 16 21 2602 5831 656 8 acpi kallsyms swaps
1334 17 2179 2603 5837 658 807 buddyinfo key-users sys
1335 18 2180 2604 5838 659 810 bus kmsg sysvipc
1336 1808 2200 2620 5839 6596 813 cgroups loadavg timer_list
1337 1821 2208 2622 5840 660 814 cmdline locks tty
1338 1822 221 2632 5841 6643 821 consoles mdstat uptime
1339 1824 2213 2686 6 6655 824 cpuinfo meminfo version
1343 1825 2221 2738 6049 669 831 crypto misc vmallocinfo
1344 1826 2224 2740 618 684 832 devices modules vmstat
1345 1828 223 2751 6231 7 833 diskstats mounts zoneinfo
1346 19 225 2969 6257 701 834 dma mpt
root@nas-27-40-68:/proc# cat uptime
4342.85 17285.16
root@nas-27-40-68:/proc# cat loadavg
0.77 0.75 0.68 1/160 13923
root@nas-27-40-68:/proc# cat cpuinfo
processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 58
model name : Intel(R) Core(TM) i3-3220 CPU @ 3.30GHz
stepping : 9
cpu MHz : 3300.000
cache size : 3072 KB
physical id : 0
siblings : 4
core id : 0
cpu cores : 2
apicid : 0
initial apicid : 0
fpu : yes
fpu_exception : yes
cpuid level : 13
wp : yes
flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr
sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc
aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm sse4_1 sse4_2 popcnt xsave avx
f16c lahf_lm arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms
bogomips : 6585.46
clflush size : 64
cache_alignment : 64
address sizes : 36 bits physical, 48 bits virtual
power management:
root@nas-27-40-68:/proc# cat meminfo
MemTotal: 3941428 kB
MemFree: 3675908 kB
Buffers: 1408 kB
Cached: 172204 kB
SwapCached: 0 kB
Active: 109116 kB
Inactive: 113324 kB
Active(anon): 49476 kB
Inactive(anon): 6716 kB
Active(file): 59640 kB
Inactive(file): 106608 kB
Unevictable: 0 kB
Mlocked: 0 kB
SwapTotal: 523964 kB
SwapFree: 523964 kB
Dirty: 48 kB
Writeback: 0 kB
AnonPages: 48944 kB
Mapped: 23020 kB
Shmem: 7364 kB
Slab: 21628 kB
SReclaimable: 11072 kB
SUnreclaim: 10556 kB
KernelStack: 1296 kB
PageTables: 6388 kB
NFS_Unstable: 0 kB
Bounce: 0 kB
WritebackTmp: 0 kB
CommitLimit: 2494676 kB
Committed_AS: 299708 kB
VmallocTotal: 34359738367 kB
VmallocUsed: 2768 kB
VmallocChunk: 34359730116 kB
DirectMap4k: 6144 kB
DirectMap2M: 4096000 kB
root@nas-27-40-68:/proc# uptime
10:22:30 up 1:12, 1 user, load average: 0.64, 0.72, 0.67

В приведённом выше выводе команды cat cpuinfo мы удалили информацию о ядрах процессора 1, 2 и 3 потому, что они дублируют сведения, представленные для ядра №0.

На этом мы завершаем процесс рассмотрения возможностей командной строки сетевого хранилища ReadyNAS 516 и переходим непосредственно к разделу тестирования.

Тестирование

Первым традиционным тестом, с которого мы начинаем данный раздел, является измерение времени загрузки сетевого хранилища, под которым мы понимаем интервал времени, прошедший с момента включения устройства до получения первого эхо-ответа по протоколу ICMP. NETGEAR ReadyNAS 516 загружается за 43 секунды. Мы считаем это хорошим результатом.

Вторым тестом стала проверка защищённости устройства, проводимая с помощью сканера сетевой безопасности Positive Technologies XSpider 7.7 (Demo build 3100). Всего было обнаружено восемь открытых портов: TCP-80 (HTTP), UDP-137 (NetBIOS Name), TCP-139 (NetBIOS Samba), TCP-443 (HTTP SSL), TCP-445 (Microsoft DS), TCP-548 (afpovertcp), TCP-8200 (HTTP) и TCP-10000 (HTTP). Наиболее интересные из обнаруженных сведений представлены ниже.

Нам хотелось бы также представить основные параметры нашего тестового стенда.

Компонент ПК
Материнская плата ASUS Maximus V Extreme
Процессор Intel Core i7 3770K 3.5 ГГц
Оперативная память DDR3 PC3-10700 SEC 32 Гбайта
Сетевая карта Intel Gigabit CT Desktop Adapter
Intel Gigabit 82579V
Операционная система Windows 7 x64 SP1 Rus

Третьим тестом, который мы решили провести с данным сетевым хранилищем, стала проверка работоспособности функции агрегации сетевых интерфейсов. NETGEAR ReadyNAS 516 оснащён двумя физическими гигабитными интерфейсами, которые могут быть объединены в один логический с полосой пропускания до 4 Гбит/с в режиме полного дуплекса, то есть по 2 Гбит/с в каждую сторону. Мы подключили тестируемое сетевое хранилище обоими интерфейсами к коммутатору Cisco Catalyst 2960, имеющемуся в нашей тестовой лаборатории, и произвели связывание адаптеров на стороне хранилища. В качестве режима объединения был выбран IEEE 802.3ad с использованием протокола LACP. Наверное, это наиболее распространённый способ агрегирования физических интерфейсов.

Соответствующая настройка потребовалась и со стороны коммутатора. Ниже приведены настройки одного из физических портов, участвующих в агрегации.

interface GigabitEthernet0/1
switchport access vlan 2
switchport mode access
channel-protocol lacp
channel-group 1 mode active

Теперь нам хотелось бы предостеречь наших читателей от необдуманного использования агрегации с помощью LACP, пояснив некоторые принципы его работы. При необходимости передачи кадра через логический интерфейс, построенный с помощью LACP, не происходит разбивки кадра на части, но выбор одного физического канала для отправки. Выбор такого канала производится на основе хеш-таблицы, построенный на базе адресов отправителя, получателя или пары отправителя-получателя. Но что это за адреса? Сетевое хранилище NETGEAR ReadyNAS 516 позволяет выбрать, какие именно адреса будут использоваться. Для построения хеш-таблицы могут быть использованы MAC-адреса, IP-адреса или же номера портов TCP или UDP.

Соответствующая настройка доступна и на коммутаторе. В зависимости от модели и версии микропрограммного обеспечения используемого коммутатора могут быть доступны те или иные варианты построения хеш-таблицы. Так, например, для имеющегося у нас сетевого устройства Cisco Catalyst 2960 построение хеш-таблицы возможно лишь на основании MAC или IP-адресов.

Switch#sho etherchannel load-balance
EtherChannel Load-Balancing Configuration:
src-dst-ip
EtherChannel Load-Balancing Addresses Used Per-Protocol:
Non-IP: Source XOR Destination MAC address
IPv4: Source XOR Destination IP address
IPv6: Source XOR Destination IP address
Switch(config)#port-channel load-balance ?
dst-ip Dst IP Addr
dst-mac Dst Mac Addr
src-dst-ip Src XOR Dst IP Addr
src-dst-mac Src XOR Dst Mac Addr
src-ip Src IP Addr
src-mac Src Mac Addr

Агрегация канала с использованием протокола LACP обеспечивает статистическую балансировку, то есть она будет хорошо работать при наличии большого количества источников и получателей трафика. Поэтому в одном из наших тестов мы использовали iSCSI MultiPath, а не агрегацию с помощью LACP, для преодоления возможностей одного физического сетевого интерфейса, чтобы исключить некоторую неопределённость, вносимую агрегацией.

При размещении сетевого хранилища ReadyNAS 516 в одной виртуальной сети с конечными пользователями можно использовать балансировку как по MAC-адресам, так и по IP-адресам. Однако если конечные пользователи отделены от хранилища маршрутизатором, то использование балансировки на основе MAC-адресов уже не может быть названо эффективным, так как проходящие через агрегированный канал кадры будут иметь MAC-адреса хранилища и маршрутизатора, то есть всегда будет выбираться один физический интерфейс для передачи. Выяснить, какой физический интерфейс будет выбран для передачи реальных пользовательских данных можно с помощью команды test на коммутаторе. К сожалению, соответствующей команды на хранилище не предусмотрено.

Switch#test etherchannel load-balance interface port-channel 1 ip 192.168.2.5 192.168.2.4
Would select Gi0/1 of Po1

Теперь мы переходим, пожалуй, к самой интересной части данного раздела – тестированию производительности. Нами были собраны RAID-массивы, доступ к данным на которых мы получали с помощью протоколов SMB и iSCSI.

Сетевое хранилище NETGEAR ReadyNAS 516 имеет поддержку IPv6. Естественно, мы не могли обойти это стороной и провели тест производительности SMB при работе с этим протоколом. К сожалению, нам так и не удалось заставить заработать iSCSI поверх IPv6.

Тестируемая модель поддерживает сжатые папки и LUN. Мы решили сравнить скорости доступа к сжатым и не сжатым данным. Скорости доступа к сжатым и не сжатым данным практически не отличаются.

К USB-портам хранилища можно подключать внешние жёсткие диски и флеш-карты. На диаграмме ниже представлены скорости доступа к данным, расположенным на внешнем жёстком диске Transcend StoreJet 25M3 объёмом 750 Гбайт с разделом, последовательно отформатированным в четыре файловые системы: EXT2, EXT3, NTFS и FAT32. Стоит отметить, что при использовании файловой системы NTFS мы столкнулись с некоторыми трудностями: так, если форматирование производилось утилитой Acronis Disk Director, то диск уверенно определялся устройством; если же форматирование производилось встроенными средствами операционной системы Windows 7, то такой диск корректно не определялся.

Из приведённых выше диаграмм видно, что часто производительность хранилища ограничивалась производительностью сетевого интерфейса, то есть скоростью 1 Гбит/с. Мы решили проверить, на что ещё способна модель NETGEAR ReadyNAS 516, для чего осуществили подключение к ней с помощью iSCSI MultiPath по обоим сетевым интерфейсам. В некоторых тестах производительность iSCSI MultiPath почти в два раза превышала возможности одного сетевого интерфейса.

На этом мы завершаем раздел тестирования и переходим к подведению итогов.

Заключение

В линейке сетевых хранилищ ReadyNAS 500 присутствуют пять моделей: RN51600 не имеет дисков, RN51661E оснащена шестью дисками по 1 Тбайту, RN51662E – по 2 Тбайта, RN51663E – по 3 Тбайта и RN51664E – по 4 Тбайта. К нам попала модель RN51600, которой мы в целом остались довольны.

Сильные стороны сетевого хранилища NETGEAR ReadyNAS 516 перечислены ниже.

  • Большой 120 мм вентилятор в корпусе.
  • Возможность агрегирования физических сетевых интерфейсов.
  • Хорошие скорости доступа к данным.
  • Возможность бесплатной установки модулей расширения.
  • Наличие поддержки IPv6.
  • Поддержка доменов Windows.
  • Наличие удалённого доступа к данным хранилища, установленного в локальной сети (через NAT/PAT провайдера).
  • Возможность удалённой репликации данных между двумя хранилищами, размещёнными в разных локальных сетях за граничными сетевыми устройствами провайдеров.

К сожалению, нельзя не сказать и о недостатках.

  • Маленький вентилятор 40 мм в блоке питания.
  • Отсутствие поддержки IPv6 для iSCSI.
  • Невозможность работы с новыми версиями NTFS.
  • Отсутствие поддержки кириллических доменов.

На момент написания статьи средняя цена на сетевое хранилище NETGEAR ReadyNAS 516 в интернет-магазинах Москвы составляла 55000 рублей.