Отмена перехода на зимнее время FreeBsd
cd /usr/ports/misc/zoneinfo make install clean rehash zic -l /usr/share/zoneinfo/Europe/Moscow
Далее перезапускаем сервисы
service mysql-server restart service cron restart
4 ноября 2014, 07:12
cd /usr/ports/misc/zoneinfo make install clean rehash zic -l /usr/share/zoneinfo/Europe/Moscow
service mysql-server restart service cron restart
wget http://ftp.us.debian.org/debian/pool/main/t/tzdata/tzdata_2011k-0squeeze1_all.deb dpkg -i tzdata_2011k-0squeeze1_all.deb date
cd /usr/ports/devel/git make install clean
cd /usr/ports/devel/py-gitosis make install clean
cd /usr/ports/security/sudo make install clean distclean rehash
adduser git
sername : git Password : <disabled> Full Name : Uid : 1008 Class : Groups : git Home : /home/git Home Mode : Shell : /bin/sh Locked : no
AllowUsers git
service sshd restart
ssh-keygen -t rsa
sudo -H -u git gitosis-init < /root/.ssh/id_rsa.pub
su git cd ~
mkdir ~/tmp cd ~/tmp
git clone ~/repositories/gitosis-admin cd gitosis-admin
[gitosis] [group gitosis-admin] members = root@server.ru writable = gitosis-admin
[gitosis] [group gitosis-admin] members = root@server.ru Ncs writable = gitosis-admin
git add . git commit -a -m 'Ncs added' git push origin master
file -i file.txt
portmaster -r png
cd /usr/ports/www/node make install clean rehash
echo 'var a=2+2; console.log(a);' > ~/test.js node ~/test.js
curl http://npmjs.org/install.sh | sh npm install express
DELIMITER $$ DROP FUNCTION IF EXISTS sfKillConnection $$ CREATE FUNCTION sfKillConnection() RETURNS INT BEGIN SELECT connection_id() into @connectionId; KILL @connectionId; RETURN @connectionId; END $$ DELIMITER ;
select if( (SELECT 1>2), 'ok', sfKillConnection() );
SET @VersionToUpdate = 10; select if( (SELECT getCurrentVersion() = @VersionToUpdate), 'ok', sfKillConnection() ); DROP table my_table;
<?php echo date_diff(new DateTime(), new DateTime('2011-09-01 12:12:11'))->days; ?>
expires max; gzip on; gzip_vary on; gzip_comp_level 6; gzip_proxied any; gzip_types text/plain text/css application/json application/x-javascript text/xml application/xml application/xml+rss text/javascript; gzip_buffers 16 8k; gzip_disable "MSIE [1-6].(?!.*SV1)";
UPDATE tbl set pole = REPLACE(pole, CAST(0x0d AS CHAR), '')
kldload pf kldstat echo 'pf_enable="YES"' >> /etc/rc.conf
if="em0" pass in on $if proto tcp from any to $if port ssh flags S/SA keep state (max-src-conn-rate 3/60, overload <ssh-bruteforce> flush global) block drop in quick on $if from <ssh-bruteforce> #обязательно оставьте пустую строку в конце файла
pfctl -e pfctl -f /etc/pf.conf
cd /usr/ports/security/expiretable make install clean rehash
*/5 * * * * root /usr/local/sbin/expiretable -t 3600 ssh-bruteforce
who
last
w
csup -h cvsup6.freebsd.org /usr/share/examples/cvsup/ports-supfile
csup -h cvsup6.freebsd.org /usr/share/examples/cvsup/stable-supfile
:wq
ssh -N -D 9999 root@server_ip
git clone git+ssh://git-user@git-host.com:1111/rep.git rep
fetch https://github.com/downloads/glk/pefs/pefs-2011-04-14.tar.gz tar -xvf pefs-2011-04-14.tar.gz cd pefs-2011-04-14 make
===> sys/modules/pefs (all) "Makefile", line 11: Malformed conditional (${MACHINE_CPUARCH} == "i386" || ${MACHINE_CPUARCH} == "amd64") "Makefile", line 14: if-less endif make: fatal errors encountered -- cannot continue *** Error code 1
.if ${MACHINE_CPUARCH} == "i386" || ${MACHINE_CPUARCH} == "amd64" SRCS+= pefs_aesni.c CFLAGS+= -DPEFS_AESNI .endif
#.if ${MACHINE_CPUARCH} == "i386" || ${MACHINE_CPUARCH} == "amd64" SRCS+= pefs_aesni.c CFLAGS+= -DPEFS_AESNI #.endif
make install clean rehash
mkdir /secret pefs mount /secret /secret pefs addkey /secret
echo 'test' > /secret/file.txt
cat /secret/file.txt
pefs unmount /secret
cat /secret/file.txt
pefs mount /secret /secret pefs addkey /secret
cat /secret/file.txt
var A = new Object; var B = A; A['value'] = 1; alert(B['value']);
var A = new Object; var B = jQuery.extend({}, A);
server { listen 80; server_name your.site.ru; charset utf-8; root /usr/local/www/nginx/build; index index.html index.htm index.php; location / { try_files $uri $uri/ /index.php?$args; } #error_page 404 /404.html; # redirect server error pages to the static page /50x.html # error_page 500 502 503 504 /50x.html; location = /50x.html { root /usr/local/www/nginx-dist; } location ~ \w+\.php$ { #вот тут лучше заменить на юникс сокет fastcgi_pass 127.0.0.1:9000; fastcgi_index index.php; include fastcgi_params; fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; fastcgi_param PATH_INFO $fastcgi_script_name; } # deny access to .htaccess files, if Apache's document root # concurs with nginx's one # location ~ /\.ht { deny all; } location ~ ^/protected/ { deny all; } }
cd /usr/ports/textproc/sphinxsearch make install clean rehash
## Конфигурационный файл Sphinx-а для индексации LiveStreet ####################### # # Описываем индексы # ####################### # Источник-родитель для всех остальных источников. Здесь указываются параметры доступа # к базе данных сайта source lsParentSource { type = mysql sql_host = localhost sql_user = user sql_pass = pass sql_db = livestreet sql_port = 3306 # Для ускорения работы прописываем путь до MySQL-го UNIX-сокета (чтобы # операции с БД происходили не через TCP/IP стек сервера) sql_sock = /var/run/mysqld/mysqld.sock mysql_connect_flags = 32 # 32- включение сжатие при обмене данными с БД # Включам нужную кодировку соединения и выключаем кеш запросов sql_query_pre = SET NAMES utf8 sql_query_pre = SET SESSION query_cache_type=OFF } # Источник топиков source topicsSource : lsParentSource { # запрос на получения данных топиков sql_query = \ SELECT t_fast.topic_id, t_fast.topic_title, UNIX_TIMESTAMP(t_fast.topic_date_add) as topic_date_add, \ tc.topic_text, t_fast.topic_publish \ FROM prefix_topic as t_fast, prefix_topic_content AS tc \ WHERE t_fast.topic_id=tc.topic_id AND t_fast.topic_id>=$start AND t_fast.topic_id<=$end # запрос для дробления получения топиков на неколько итераций sql_query_range = SELECT MIN(topic_id),MAX(topic_id) FROM prefix_topic # сколько получать объектов за итерацию sql_range_step = 1000 # Указываем булевый атрибут критерия "топик опубликован". Для возможности указания этого критерия при поиске sql_attr_uint = topic_publish # Атрибут даты добавления, типа "время" sql_attr_timestamp = topic_date_add # мульти-аттрибут "теги топика" sql_attr_multi = uint tag from query; SELECT topic_id, topic_tag_id FROM prefix_topic_tag sql_ranged_throttle = 0 } # Источник комментариев source commentsSource : lsParentSource { sql_query = \ SELECT comment_id, comment_text, UNIX_TIMESTAMP(comment_date) as comment_date, comment_delete \ FROM prefix_comment \ WHERE target_type='topic' AND comment_id>=$start AND comment_id<=$end AND comment_publish=1 sql_query_range = SELECT MIN(comment_id),MAX(comment_id) FROM prefix_comment sql_range_step = 5000 sql_attr_uint = comment_delete sql_attr_timestamp = comment_date } ####################### # # Описываем индексы # ####################### index topicsIndex { # Источник, который будет хранить данный индекса source = topicsSource path = /var/lib/sphinx/topicIndex # Тип хранения аттрибутов docinfo = extern mlock = 0 # Используемые морфологические движки morphology = stem_enru # Кодировака данных из источника charset_type = utf-8 # Из данных источника HTML-код нужно вырезать html_strip = 1 html_remove_elements = style, script, code } # Индекс комментариев index commentsIndex { source = commentsSource path = /var/lib/sphinx/commentsIndex docinfo = extern mlock = 0 morphology = stem_enru charset_type = utf-8 # Из данных источника HTML-код нужно вырезать html_strip = 1 html_remove_elements = style, script, code } ####################### # # Настройки индексатора # ####################### indexer { # Лимит памяти, который может использавать демон-индексатор mem_limit = 128M } ####################### # # Настройка демона-поисковика # ####################### searchd { # Адрес, на котором будет прослушиваться порт address = 127.0.0.1 # Ну и собственно номер порта демона searchd port = 3312 # Лог-файл демона log = /var/log/sphinx/searchd.log # Лог поисковых запросов. Если закомментировать,то логировать поисковые строки не будет query_log = /var/log/sphinx/query.log # Время в секундах, которое ждет демон при обмене данными с клиентом. По исчерпании происходит разрыв коннекта read_timeout = 5 # Максимальное количество одновременно-обрабатываемых запросов. 0 означает дофига, а точнее без ограничения max_children = 100 # Файл, в который сохраняется PID-процесса при запуске pid_file = /var/log/sphinx/searchd.pid }
indexer --all searchd
0 * * * * root /usr/local/bin/indexer --rotate topicsIndex > /dev/null 2>&1 */30 * * * * root /usr/local/bin/indexer --rotate commentsIndex > /dev/null 2>&1