elasticsearch[13241]: [warning] /etc/init.d/elasticsearch: No java runtime was found

Decidimos realizar la instalacion de ElasticSearch para poder realizar el indexado de tablas enormes dentro de nuestro hive.

La instalacion fue transparente, pero luego de levantar el servicio nos mostraba el siguiente error cuando pediamos un  status de nuestro servicio.

Corroboramos que las variables estuvieran bien y por sobre todo este instalado java.

Error que aparecio.

root@srvhadoopt3:~# service elasticsearch status
● elasticsearch.service - LSB: Starts elasticsearch
   Loaded: loaded (/etc/init.d/elasticsearch; bad; vendor preset: enabled)
   Active: active (exited) since Thu 2017-10-12 13:37:34 ART; 6min ago
     Docs: man:systemd-sysv-generator(8)

Oct 12 13:37:33 srvhadoopt3 systemd[1]: Starting LSB: Starts elasticsearch...
Oct 12 13:37:34 srvhadoopt3 elasticsearch[13241]: [warning] /etc/init.d/elasticsearch: No java runtime was found
Oct 12 13:37:34 srvhadoopt3 systemd[1]: Started LSB: Starts elasticsearch.

Solucion

Como solucion,

Dataflow | How to Install and configure NIFI

Que es y para que ?

Nifi es una herramienta web que podemos utilizar para realizar la ingesta de datos.

Nos permite escuchar, formatear y hacer un primer filtro de los mensajes (datos) recibidos mediante varios de sus procesadores embebidos.

Asi mismo procesar y distribuir datos.

Descarga de Packages y chequeos

Descargamos los packages desde :

https://nifi.apache.org/

Alli enconraremos diferenetes versiones de producto.

Luego procedemos a realizar un CHECKSUM para poder verificar que es un package seguro y que no sufrio alteraciones en el camino.

[amercado.nbfor101200] ➤ md5sum nifi-1.4.0-bin.tar.gz
28c5511073452cf59e9ec1b278a1a7e4 nifi-1.4.0-bin.tar.gz

Instalacion

Descomprimimos el package en el path

How to Install Kibana with Debian Packages

Luego de haber realizado mi instalación de Elastic Search, decidí montar un plugin llamado  Kibana, para poder visualizar y explorar datos que se encuentran indexados en  ElasticSearch.

Podemos decir también , que como en el pasado con otros productos open source aparecieron siglas como LAMP (Linux/Apache/MySQL/PHP) para esta familia de elastic, contenemos el stack ELK:

  • Elasticsearch
  • Logstash
  • Kibana

En mi caso, decidi comenzar la instalación de forma manual , con pkgs de Debian en mi Ubuntu server 16.

Descargamos los paquetes del repositorio oficial:

hadoop@srvhadoopt3:$ wget https://artifacts.elastic.co/downloads/kibana/kibana-5.6.3-amd64.deb
--2017-10-12 16:59:33--  https://artifacts.elastic.co/downloads/kibana/kibana-5.6.3-amd64.deb
Resolving proxgue.garba.com.ar (proxgue.garba.com.ar)... 10.0.60.3
Connecting to proxgue.garba.com.ar (proxgue.garba.com.ar)|10.0.60.3|:8080... connected.
Proxy request sent, awaiting response... 200 OK
Length: 52533368 (50M) [application/octet-stream]
Saving to: ‘kibana-5.6.3-amd64.deb’

kibana-5.6.3-amd64.deb                          100%[====================================================================================================>]  50.10M  1.34MB/s    in 65s

2017-10-12 17:00:40 (784 KB/s) - ‘kibana-5.6.3-amd64.deb’ saved [52533368/52533368]

Verifico que el paquete sea seguro y que contiene el hash correspondiente

hadoop@srvhadoopt3:$ sha1sum kibana-5.6.3-amd64.deb
12821507ace7c49eea5011e360f8353007f0ab90  kibana-5.6.3-amd64.deb

Bien, una vez descargado , procedemos con la instalacion del package:

RED HAT FORUM Buenos Aires 2017

RHFBA-17-00(2)
Soluciones Opensource con Red Hat

Bajo la  consigna The Impact of the Individual se realizo una nueva edición del RED HAT FORUM Buenos Aires 2017 y allí estuvimos presentes.

La cita se produjo en Hotel Hilton Buenos Aires y  los temas que se expusieron fueron:

  • El impacto del Individuo.
  • Conocer los desafíos del mercado con un enfoque abierto.
  • TI en un mundo híbrido: como innovar en su negocio con Red Hat.
  • Creando talento para la cultura digital.
  • IBM Cognitive Systems.
  • Viviendo la Transformación Digital.
  • Porque el impacto de la cultura open source todavía esta por venir.
  • Potenciando la innovación a través del desarrollo de aplicaciones de la Nube.
  • El cliente en el centro de escena: the Red Hat way.
  • Respirando la cultura Red Hat: un día en la vida de soporte técnico.

AWS CLOUD EXPERIENCE BUENOS AIRES

Header_BuenosAires

Hace poco tiepo se llevo a cabo el evento de Amazon web services AWS Cloud Experience Buenos Aires, en Hotel Sheraton  Libertador y visitamos la Partner Expo.

Los temas de Agenda fueron:

Track Técnico 1:

IMG_20170713_184412287 (2)

  • Extendiendo su centro de datos a la nube: opciones de conectividad y consideraciones para ambientes híbridos.
  • Servicios de almacenamiento de AWS.
  • Servicios de base de datos de AWS.
  • Servicios de migración de datos de AWS.
  • Optimización de costos con los diferentes modelos de compra de servicios en la nube, Instancias Reservadas, SPOT y otros.

IMG_20170713_200849416

Track Técnico 2:

  • Comenzando con arquitecturas sin servidores.
  • Comenzando con Docker en AWS.
  • Servicios móviles en AWS.
  • Construcción de las aplicaciones de Big Data con la plataforma de AWS.
  • Construyendo aplicaciones IoT con AWS.

1 comment on “Oracle Exadata | Log Files on Database Machine”

Oracle Exadata | Log Files on Database Machine

English: Disk structures comprising Oracle dat...
English: Disk structures comprising Oracle database files Category:Database (Photo credit: Wikipedia)

Como es de publico conocimiento, cada vez que nuestros sistemas comienzan con problemas o queremos determinar algun tipo de comportamiento :

  • Como ?
  • Cuando ?

Es el momento en que recurrimos a la revision de los logs .

Esta revision se hace aun mas exaustiva cuando trabajamos de forma remota y no estamos en el dia a dia del cliente. Ahi es donde buscaremos el historial del comportamiento de nuestro OS y nuestras DB’s.

En el caso de hoy vamos a comentar donde hallarlos en un Exadata.

Espero no estar olvidando nada, si asi fuere, solicito su contribucion que sera bienvenida.

Database Logs

Vamos a comenzar por el sector de las base de datos, en los nodos donde se encuentran.

a) Comenzamos por el ASM  para las ASM instances.

$ORACLE_BASE/diag/asm/+asm/+ASM{inst_number}/trace/alert_+ASM {inst_number}.log

Veamos un Ejemplo

Oracle ASM 11gr2 | How to Upgrade ASM 10gr2 to 11gr2

Buenas tardes a todos, aca regreso de nuevo luego de varias migraciones, puestas en producción y dictado de clases. 

Si bien no aparezco con nuevo articulo hace tiempo, hoy regreso con uno interesante para dbas que se encuentran con el proceso de migrar su motor de base de datos de 10gr2 hacia 11gr2.

Algunos ambientes precisan utilizar 10g y 11g al mismo tiempo para probar performance, procesos de migración y otro tipos de reportes.

Una solución que propongo es migrar el storage a 11g y tener la posibilidad de :

  • Conservar las bases de datos de versión 10g.
  • Instalar nuevas bases 11g.
  • Probar procesos de migración.

Es por ello que en este instructivo cumplo con detallar el primer paso.

Migrar el ASM , ejecutando la nueva structura GRID que nos propone Oracle y que con mayor detalle de configuración nos permite la instalacion del instancias en cluster.

Preparativos para la realizar el upgrade

Vamos a comenzar descargando el software.

Oracle Database 11gR2 (64bits)

Una vez que realizamos la descarga lo colocamos en un path de instalación.