- разные задачи на руби https://gist.github.com/elvisgiv/c9a7242d783a254539d2bb7f99907116
- примеры скриптов https://gist.github.com/elvisgiv/c6bfa1b469344b67e0f0282ec72ccb86
- Дефолтный шаблон для рельсового приложения
#Направление потока ошибок в стандартный поток
При вызове команды %x["cd /mnt/elvis"]
идет два потока один стандартный UOTPUT
второй STDERR
. И поток STDERR
не заносится в логи системы.
Добавление 2>&1
в конце команды, направляет поток ошибок на стандартный (UOTPUT) поток (который заносится в логи) и их можно там увидеть
a = %x["cd /mnt/elvis 2>&1"]
НЕверная запись, в скобках []
НЕ должно быть кавычек ""
a = %x[cd /mnt/elvis 2>&1]
верная запись
#Elasticsearch without DB https://github.com/elastic/elasticsearch-rails/tree/master/elasticsearch-persistence#the-activerecord-pattern
##Задача - сделать поиск записей, которые загружаются непосредственно в Elasticsearch ##Gemfile
../Gemfile
group :development do
# отключает журнал трубопровода активов Rails (https://github.com/evrone/quiet_assets)
#Custom layout ##Controller
../app/controllers/search_controller.rb
class SearchController < ApplicationController
layout "blank"
def index
#Install kibana ##Development Environment https://www.elastic.co/guide/en/kibana/current/setup.html
To get Kibana up and running:
Для того, чтобы kibana
увидела index_name
из elasticsearch
нужно сделать mappings dynamic: 'true'
и поставить :type => 'date'
для :created_at
VSE PO PORYADKU
(from: http://itc-life.ru/fluentd-bystryj-poisk-logov-s-elasticsearch-kibana-and-fluentd/
)
$ `sudo wget https://download.elastic.co/elasticsearch/release/org/elasticsearch/distribution/deb/elasticsearch/2.3.1/elasticsearch-2.3.1.deb`
$ `sudo dpkg -i elasticsearch-2.3.1.deb`
#Задача - показать количество продуктов в списке категорий ##Controllers
nodes_controller.rb
def index
@items = Node.includes(:cluster => [:team]).by_filter(@filter)
# for count
node_ids = Node.pluck(:id)
#Kafka for Ruby http://teamcoding.com/blog/2015/10/05/kafka/
Kafka is “publish-subscribe messaging rethought as a distributed commit log”.
We are exploring Kafka for doing something which looks like Event Sourcing from Domain Driven Design.
Kafka’s performance is pretty much constant with respect to data size so retaining events forever should not present a problem.
#Install Kafka