How to Check Clusterware Version and Name on Cluster Upgrades

Como comentara en uno de los últimos posts de UPGRADE de Cluster, fue necesario conocer la release.

Pero en ocasiones siempre doy por hecho que todo el mundo conoce de lo que estoy hablando.

Esta semana me han escrito alguno colegas preguntando como obtengo esas salidas.

Aquí mi respuesta …

Cluster Software Version

Nos posicionamos en un nodo, de los n nodos que tengamos.

Si estamos realizando tareas en modo rolling upgrade , podríamos utilizar softwareversion que nos muestra la ultima versión del software, que obtuvo el ultimo start sucesfully en un determinado nodo.

crsctl query crs softwareversion [node_name]

Ejemplo de la ejecución en el mismo nodo donde nos encontramos

[oragrid@exa2adbadm01 ~]$ crsctl query crs softwareversion
Oracle Clusterware version on node [exa2adbadm01] is [12.1.0.2.0]

Ejemplo de ejecucion en un nodo remoto.

[oragrid@exa2adbadm01 ~]$ crsctl query crs softwareversion exa2adbadm02
Oracle Clusterware version on node [exa2adbadm02] is [12.1.0.2.0]

Cluster Active Version

Ahora bien, Sigue leyendo

Exadata Apply patch post upgrade

Instalación de Parche en Exadata X5

Cuando administramos un Oracle Exadata Machine es importante encontrarnos con el roadmap actualizado de la fixes de seguridad, patchsets, etc.

Como parte de estas tareas que nos previenen de bugs y otras incidencias, como así también poder migrar los motores de bases de datos, es que decidimos hacer un upgrade  poder llevar a la ultima release de la versión de GridInfra Structure, realizando el upgrade a 12.1.0.2 y decidimos hacer este trabajo en modo rolling :

Verificamos la release actual:

[oragrid@exa2adbadm01 ~]$ crsctl query crs activeversion
Oracle Clusterware active version on the cluster is [12.1.0.0.0]

Stopeamos los servicios del nodo del Cluster:

Run the pre root script.
As the root user execute:

# /crs/install/rootcrs.pl -unlock

Sigue leyendo

Exadata Opatch found error changing permission during 12.1.0.2.170117 patch installation

chmod: changing permissions of ‘$ORACLE_HOME/bin/extjobO’:Operation not permitted”

Como parte de nuevas políticas que propusimos en la empresa donde nos encontramos brindando servicios, como políticas de Roadmap de Equipos de computo, bases de datos y otros sistemas, comenzamos con un trabajo de actualizacion de Oracle Database Machine X5.

A raíz de realizar el UPGRADE de Grid Infraestructure, desde 11.2.0.4 hacia 12.1.0.2 , luego de ejecutar los pasos con opatch, nos encontramos con siguiente WARNING:

 [OPSR-TIME] Backup area for restore has been cleaned up. For a complete list of files/directories
 deleted, Please refer log file.
 Composite patch 26609798 successfully applied.
 UtilSession: N-Apply done.
 --------------------------------------------------------------------------------
 The following warnings have occurred during OPatch execution:
 1) OUI-67215:
 OPatch found the word "error" in the stderr of the make command.
 Please look at this stderr. You can re-run this make command.
 Stderr output:
 chmod: changing permissions of `/u01/app/grid/12.1.0.2/bin/extjobO': Operation not permitted
 make: [iextjob] Error 1 (ignored)
 --------------------------------------------------------------------------------
 OUI-67008:OPatch Session completed with warnings.
 Finishing UtilSession at Wed Nov 29 14:53:02 ART 2017
 Log file location: /u01/app/grid/12.1.0.2/cfgtoollogs/opatch/opatch2017-11-29_14-38-07PM_1.log

Dont Worry, Be happy

Es un bug de Oracle y en la nota de Support Doc ID (2265726.1) dice que debemos ignorarlo.

Debo decir que de forma previa ejecute el rollback del patch y lo aplique nuevamente y el problema desaparecio.

opatch rollback -id <PATCH_ID>
opatch apply

Voila !

Failed to resolve config path [“/usr/share/elasticsearch/config/elasticsearch.yml”]

Al finalizar la instalación de elasticsearch decidí instalar los plugins:

  • mobz/elasticsearch-head
  • royrusso/elasticsearch-HQ

Pero por alguna razon, el comando no se ejecutaba correctamente y me arrojaba el siguiente error:

root@srvhadoopt3:~# /usr/share/elasticsearch/bin/plugin install -DproxyPort=8080 -DproxyHost=proxgue.garba.com.ar royrusso/elasticsearch-HQ
Error: Could not find or load main class "-DproxyPort=8080"
root@srvhadoopt3:~# /usr/share/elasticsearch/bin/plugin install DproxyPort=8080 DproxyHost=proxgue.garba.com.ar royrusso/elasticsearch-HQ
Exception in thread "main" org.elasticsearch.env.FailedToResolveConfigException: Failed to resolve config path ["/usr/share/elasticsearch/config/elasticsearch.yml"], tried file path ["/usr/share/elasticsearch/config/elasticsearch.yml"], path file ["/usr/share/elasticsearch/config"/"/usr/share/elasticsearch/config/elasticsearch.yml"], and classpath
at org.elasticsearch.env.Environment.resolveConfig(Environment.java:291)
at org.elasticsearch.node.internal.InternalSettingsPreparer.prepareSettings(InternalSettingsPreparer.java:95)
at org.elasticsearch.plugins.PluginManager.main(PluginManager.java:396)

Análisis

Investigando y analizando la salida de la ejecución del comando, con bash -x por delante, mas los concejos de gente de la comunidad, decidimos cambiar en el script el comando exec y reemplazarlo con el comando echo.

Ese cambio,  me retorno la sentencia para ser ejecutada.

Resolución

Editamos el archivo de configuración /usr/share/elasticsearch/bin/plugin, y vamos al Sigue leyendo

Hive failed to create /user/hive/warehouse

Como parte de la arquitectura que decidí implementar en un proyecto de bigdata en un cliente, se comenzó a instalar hive, para poder poblarla de tablas de datos pesados. Tablas de 50G a 200G en una primera etapa.

Me encontraba realizando la configuración de derby integrado con Hive y al momento de configurar la instalación de hive, y crear los directorios me arroja el siguiente error.

mkdir: `/var/hadoop/USERS/user/hive/warehouse/': No such file or directory

La secuencia ocurrió cuando estaba creando los directories de Hive con HDFS

hadoop@srvhadoopt2:$ hadoop fs -mkdir /tmp
hadoop@srvhadoopt2:$ hadoop fs -mkdir /var/hadoop/USERS/user/hive/warehouse/
mkdir: `/var/hadoop/USERS/user/hive/warehouse/': No such file or directory

Troubleshotting

El error me aparecia por que es la version de hadoop que estaba utilizando, necesitaba usar el wildcar -p , como cuando ejecuto un mkdir -p para paths anidados.

hadoop@srvhadoopt2:$ hadoop fs -mkdir -p /opt/hadoop/user/hive/warehouse
hadoop@srvhadoopt2:$

Espero les sea de ayuda!

Have a nice weekend !

RED HAT FORUM Buenos Aires 2017

RHFBA-17-00(2)

Soluciones Opensource con Red Hat

Bajo la  consigna The Impact of the Individual se realizo una nueva edición del RED HAT FORUM Buenos Aires 2017 y allí estuvimos presentes.

La cita se produjo en Hotel Hilton Buenos Aires y  los temas que se expusieron fueron:

  • El impacto del Individuo.
  • Conocer los desafíos del mercado con un enfoque abierto.
  • TI en un mundo híbrido: como innovar en su negocio con Red Hat.
  • Creando talento para la cultura digital.
  • IBM Cognitive Systems.
  • Viviendo la Transformación Digital.
  • Porque el impacto de la cultura open source todavía esta por venir.
  • Potenciando la innovación a través del desarrollo de aplicaciones de la Nube.
  • El cliente en el centro de escena: the Red Hat way.
  • Respirando la cultura Red Hat: un día en la vida de soporte técnico.

Sigue leyendo

Oracle 12c Database Architecture Diagram

Les acerco el diagrama de arquitectura de Oracle database 12c que muchos colegas y alumnos me estuvieron solicitando para poder entender con mayor claridad en un resumen gráfico.

Aquí podrán acceder a una visión general de como interactua:

  • SGA.
  • PGA.
  • Flashback Buffer.
  • RedoLog Buffer.
  • Rman.
  • Listener Process.
  • Share pool detailed.

El mismo lo pueden descargar en formato PDF y es compartido del site oficial de Oracle.

posterfiles-1974103