Блог

RSS
13.03.2012

Проблема

Процесс php запущен в chroot. При попытке получания содержимого удалённой странички по https, например с помощью file_get_contents(https://example.com/page.html), в логе следующая серия ошибок:

file_get_contents(): SSL: Success

file_get_contents(): Failed to enable crypto

file_get_contents(https://example.com/page.html): failed to open stream: operation failed

 

Причины

Для работы openssl необходимо устройство /dev/urandom которое в данном случае в chroot отсутствует.

 

10.03.2012

Начальные условия:

Диск на котором в данный момент установлен Debian - /dev/sda (/dev/sda1 - /boot, /dev/sda2 - /)

Диск который мы добавили /dev/sdb, идентичный /dev/sda

 

Задача:

Создать массив програмный raid1(зеркало) и перенсти на него OS.

 

Решение:

1. Копируем таблицу разделов на /dev/sdb

#sfdisk -d /dev/sda | sfdisk /dev/sdb

Меняем тип разделов на fd (linux raid) - комманда t в fdisk, не забываем сохранить изменения (w)

#fdisk /dev/sda

12.11.2011

Гостевая ОС должна быть остановлена, файловая система отмонтирована, ну и не забываем сделать резервную копию образа.

Допустим надо добавить 1GB, файловая система ext3.

1. Увиличиваем размер файла, дописывая нулями.

# dd if=/dev/zero bs=1024k count=1024 >> disk.img

2. Выполняем проверку файловой системы образа.

# e2fsck -f disk.img

3. Выполняем расширение файловой системы до размера нового диска

# resize2fs disk.img

16.09.2011

Когда мне понадобилось в очередной раз поднять мониторинг сервера с помощью Munin на Gentoo, почему-то не хотел работать плагин http_loadtime, который отслеживает скорость загрузки определённой страницы. При проверке я получил такую ошибку:

# munin-run http_loadtime
which: no time in (/sbin:/bin:/usr/sbin:/usr/bin)
loadtime.value

Причём time вполне себе работает, но time time рознь. =) Бинарника timе действительно нет, используется комманда оболочки, а плагину надо именно бинарник.

05.03.2011

При наличии широкого канала бывает выгодно скачать файлы в несколько потоков, это будет быстрее чем качать их по очереди.

Для скачки мы будем использовать wget, а для организации нескольких потоков воспользуемся xargs.

Например у нас имеется файл со списком url, которые нам надо скачать (urllist)

# cat urllist | xargs -t -P 20 -n1 wget 

-P 20 задаёт количество одновременных потоков.