Acerca de José Carlos Martín

Consultor de Colaboración y especialista en Telepresencia.

Certificación Cisco “Cisco Collaboration Servers and Appliances (CSA 500-325)” 2019

Hace casi una semana, el pasado Jueves 13 de Junio, aprobé el examen de Cisco CSA 500-325 que forma parte de los requisitos para la Especialización Avanzada en la Arquitectura de Colaboración de Cisco, tengo que decir que no fue fácil, ni entretenido, enseguida entenderéis por qué ;-), a continuación el temario:

Anuncios

Premio como autor en el blog “Think Big Empresas” en el primer trimestre de 2019

Intento ponerme al día escribiendo en este blog las cosas que voy haciendo y consiguiendo, en este caso recupero un premio que me dieron hace casi un mes, el pasado 20 de Mayo, por los artículos escritos en el blog corporativo de Telefónica “Think Big Empresas” (antes “A un clic de las TIC”) que como sabéis es un blog de referencia en el sector de la aplicación de la tecnología para las grandes empresas y donde escribimos un conjunto de compañeros expertos en cada una de las materias tratadas. Podéis leer todos mis artículos en mi página de autor en este link.

Sabéis que me gusta mucho escribir en dicho blog, así que un reconocimiento sobre ello me alegra mucho y me motiva para seguir haciéndolo. Este premio se une al reconocimiento que nos hicieron a todos los autores hace aproximadamente hace un año y del que ya escribí en la entrada “Reconocimiento a la labor de contribución en A un clic de las TIC”, y es el segundo a nivel personal tras el primero “Un año escribiendo en A un clic de las TIC” que recibí en Septiembre de 2016, cómo pasa el tiempo!.

MOOC “Agilidad y Lean. Gestionando los proyectos y negocios del s. XXI” de MiriadaX

Hace unos días acabé el MOOC “Agilidad y Lean. Gestionando los proyectos y negocios del s.XXI“, quería “inventariarlo” en esta entrada recogiendo también algunos, no todos, porque el MOOC es muy extenso en contenido, de los aspectos que más me han gustado.

A continuación podéis ver el certificado de participación, para descargarme el de superación hay que pagar y de momento y como he hecho con otros anteriores no lo veo necesario.

El contenido del curso me pareció muy interesante. A continuación podéis ver el temario:

Aunque tengo intención de escribir otra artículo en el cual explique con más detalle cómo he aplicado la metodología ágil a mi actividad, el desarrollo de una oferta a un cliente, y en la que he podido reconocer muchas prácticas ágiles en mi día a día sin ser consciente de ello, en esta entrada sólo pretendo dejar apuntadas algunas notas que me han parecido muy interesantes, son:

¿Qué es la gestión ágil?

  • La terminología utilizada en IT proviene de la época industrial, de ahí los nombres de Arquitecto de soluciones, Ingeniería del software, desarrollo en cascada, etc… este tipo de nomenclatura y roles, pensados para la construcción de grandes proyectos en la época industrial, no casa con el desarrollo de software, una actividad más intelectual y creativa, ni con los tiempos actuales de entregas y cambios rápidos de requerimientos.

Peopleware:

  • Para cualquier proyecto donde se hace software, la clave son las personas.
  • Cuando las cosas se atascan la solución no pasa nunca por poner más gente, poner más gente hace que el proyecto se retrase más.
  • Ciclo de vida de un proyecto tradicional: Requisitos->Diseño->Codificación->Test->Despliegue
  • Un modelo ágil requiere cambiar la cultura de la empresa. Hay varios tipos de cultura (control, colaboración, cultivar, competencia), las metodologías ágiles no se pueden poner sobre cualquier tipo de cultura, sobre la de control por ejemplo, por eso requiere un cambio cultura.
  • Shu-ha-ri (seguir norma, romperla, re-inventarla).
  • El tamaño óptimo de un equipo es de 5 a 9 miembros.
  • Trabajar en más de un proyecto genera pérdidas de tiempo por cambio de contexto, de 10 a 15 minutos.
  • Hay que limitar el WIP a no más de 3.
  • Técnica de Pomodoro.
  • Los equipos de alto rendimiento, sin los cuales no hay agilidad, son auto-organizados (se les dice el qué y ellos deciden el cómo) y multifuncionales (personas de distintas áreas dentro del mismo equipo). De esa forma reducen dependencias y bloqueos, disparan la velocidad y productividad.
  • En los equipos no debe haber superhéroes.
  • Productivad no son horas, hay que medir el Valor Aportado
  • Hay que facilitar entornos con pocas interrupciones.
  • Gantt, herramienta de destrucción masiva de proyectos.
  • “El equipo debe estar sentado con una separación no superior a la longitud de un autobús escolar”. No obstante, Agile deja abiertas las puertas al teletrabajo y en el libro “Scrum y XP desde las trincheras” hace referencia al mismo como una posibilidad muy valiosa para determinados momentos del proyecto.
  • La importancia de la motivación intrínseca y 10 factores que la generan (curiosidad, lealtad/confianza, asociación al éxito, conocimiento, poder/influencia, libertad/independencia/autonomía, relaciones, claridad/sinceridad, objetivo/propósito, status).
  • Delegar, tableros de delegación y sus 7 niveles.

Product Owner y las historias de usuario.

  • El product owner es el que divide el proyecto/producto que se quiere hacer en “trocitos” (historias de usuario), las comparte con el equipo y ayuda en su validación. Es la figura que representa a los stakeholders, el que va diciendo los requisitos. Hace parte de la gestión de proyectos clásica.
  • Las historias de usuario conforman la Pila de Producto (product backlog). El PO decide que historias de usuario entran en el product backlog y las prioriza.
  • En metodologías ágiles no hay “requerimientos”, hay “historias de usuario”, son funcionalidades:

  • Estas HU deben poder ser desarrolladas en un sprint, deben poderse escribir en un post-it para que sean fácilmente visualizadas y recordadas, dicen el qué, no el cómo, aunque de forma excepcional se puede hacer casos de uso (cómo). Tienen 3 partes (Card, Conversaton and Confirmation/Validación).

  • Método INVEST para creación de historias de usuario (Independiente, negociable, valiosa, estimable, small y testeable).
  • Método MoSCoW para priorizarlas (Must Should Could Won´t).

SCRUM.

  • Nace como un método para gestionar un proyecto ágil, no un producto.
  • Roles: Product Owner, Scrum Máster, equipo de desarrollo.
  • El Product owner es la persona responsable del gestionar las necesidades que serán satisfechas por el proyecto y asegurar el valor del trabajo que el equipo lleva a cabo. Su aportación al equipo se basa en:
    • Recolectar, gestionar y ordenar las necesidades o historias de usuario.
    • Aceptar el producto software al finalizar cada iteración.
    • Maximizar el retorno de inversión del proyecto.
  • También relativo al uso de SCRUM con equipos distribuidos, me pareció interesante este estudio:”Using Scrum in Global Software Development: A Systematic Literature Review“.
  • Una vez se seleccionan las Historias de usuario que van al sprint, en el sprint planning el equipo de desarrollo las divide en tareas según un peso dependiendo del tiempo que lleva implementarlas, se autoasignan y se suman al “sprint backlog”, que es inamovible y representa lo que se va a hacer.
  • El PO puede tocar el product backlog, pero no el sprint backlog. Para las actividades del sprint se suele utilizar un tablero Kanban.
  • En el Sprint Review el equipo de desarrollo presenta al PO lo que  ha hecho y en base a ello se pueden proponer nuevas HU que vayan al product backlog, también se definen las HU del siguiente sprint.
  • El burndown chart es una medida del progreso del sprint.
  • El lado oscuro:
    • vender un proyecto y luego asignar un equipo, mucho mejor dar a un equipo ya consolidado un nuevo proyecto.
    • Tableros Requeriments, Design, Development y Test en los equipos es lo contrario a los T Skills (profundidad y amplitud) necesarios en el equipo.
    • Workflows, te paso la pelotita.
  • El SCRUM Máster es quien identifica y elimina el desperdicio.
  • La agilidad no se escala, se desescala. Scale Agile muy cuestionado.

Planificación Ágil.

  • Gestión orientada a equipos en lugar de gestión orientada a proyectos (primero el proyecto y luego el equipo). #noprojects
  • La unidad de estimación son los puntos, lo ideal es elegir una HU básica, darle la unidad y comparar las demás con ella.
  • Yesterday´s weather, una buena predicción del futuro es fijarse en lo que hemos hecho en el pasado. Estimación predictiva vs empírica. Es mejor fijarse en lo que ha hecho el equipo antes, de ahí la importancia de los equipos estables.
  • Técnica del planning poker.
  • La velocidad es la cantidad de trabajo (puntos de historia) que un equipo puede hacer en una iteración.
  • ¿Cuanto debería durar una iteración? Hay que evitar que los requisitos cambien durante la misma, por lo que sería el tiempo en que podemos mostrar un progreso para poder luego ajustar sobre él.
  • ¿Tiene sentido estimar? Movimiento #noestimates.
  • Ágil con estimaciones->Ciclo de vida iterativo, gestión con SCRUM. Contrato basado en número de iteraciones.
  • Ágil sin estimaciones->Gestión con KANBAN. Contrato por valor generado al negocio (historia de usuario terminada).

Deuda técnica.

  • El que no controla la calidad del software va “con la muerte en los talones”. Difícil de mantener, cae la productividad y…. pastilla roja o verde (refactorizar o añadir más gente). REFACTORIZAR.
  • agilidad->ciclo de vida iterativo: incrementar y REFINAR
  • El role de Quality es ahora muy distinto a la época pre-ágil.
  • Antes se podía entregar el producto sin calidad y encima tenías al cliente cautivo. En ágil los problemas aparecen pronto, en los sprints, no al cabo de 15 meses.
  • En ágil aparece el rol de QA Tester, muy demandado.
  • Calidad del producto software no es lo mismo que testing. Con el testing se comprueba que una cosa funciona, no que esté bien hecha, para ésto hay que mirar sus fuentes, diseño, etc…
  • Certificaciones como CMMI dicen que la calidad de un producto viene dado por la calidad del proceso de su creación, lo cual no es del todo falso… pero hay que mirar dentro.
  • La mala calidad del producto siempre tiene un coste, es la llamada deuda técnica, y lo paga o la empresa de software o el cliente (cliente cautivo, sobre exceso de horas de mantenimiento, etc…).
  • Las buenas prácticas ITIL, ISO20000, no son suficientes, generan “alertas”, pero hay que abrir el motor para solucionarlo y verlo. Una certificación de calidad no siempre asegura un producto de calidad.
  • Behavior-Driven Development o BDD es un proceso de desarrollo software, si bien se relaciona principalmente con el Testing, que es de donde surge. BDD busca un lenguaje común para unir la parte técnica y la de negocio donde las pruebas de aceptación se escriben usando historias de usuario: Dado [contexto inicial], cuando [se produce el evento], entonces [resultados]
  • El ciclo básico de BDD sería el siguiente…
    1 – Escribir las historias de usuario.
    2 – Escribir los escenarios.
    3 – Automatizar las pruebas de aceptación.
  • Las historias de usuario, o features en el mundo BDD, las escribe negocio, es responsabilidad del product owner. En BDD, con el objetivo de automatizar el Testing, aparte de tener historias en pósit cada historia de usuario se escribirá usando un lenguaje “de programación” llamado Gherkin y se guardarán en un fichero de extensión .feature que posteriormente serán leídos por una herramienta que los entienda, por ejemplo, Cucumber (para Ruby), que verifica si el software se comporta como el fichero Gherkin dice.
  • Gherkin es un lenguaje entendible por el negocio, lo que se llama un DSL (Domain-Specific Language), más o menos cercano al lenguaje natural. Está pensado para que lo entienda “negocio”, los usuarios, etc. Su idea es contar como se “comporta” el software sin entrar en detalles de implementación.
  • Alguien del equipo tiene que escribir el código que transforma el texto en Gherkin en interacciones con el código a probar, pero antes necesitaremos escenarios asociados a cada historia de usuario que nos den ejemplos de cómo debe comportarse el software implementado para esa historia. Esos escenarios serán el paso intermedio entre la historia de usuario y la implementación de una prueba automatizada.

De momento nada más, creo que es una buena muestra de lo aprendido. He disfrutado mucho este curso y pretendo seguir escuchando y leyendo a Javier Garzás y 233 grados de tí, referentes muy interesantes en el mundillo Ágil.

Curso “Aprende SQL” del Instituto Tecnológico de Telefónica en MiriadaX

Acabo de terminar el curso “Aprende SQL” del Instituto Tecnología de Telefónica publicado en el portal MiriadaX. A continuación el diploma de participación.

El contenido del mismo podéis verlo también en la figura de más abajo:

El MOOC me ha gustado mucho, siempre había tenido ganas de aprender algo de SQL, más que nada para “desmitificarlo”, pero no encontré ni el momento ni el curso adecuado, ha sido éste. Lo más importante es que gracias a los ejercicios prácticos he podido instalarme MySQL en el PC y cargar un par de bases de datos para jugar con los distintos tipos de consultas, más abajo uno de los ejercicios:

 

 

Integración de IoT y UC&C, caso práctico Arduino (Climastick) y Cisco Webex Teams

Como he comentado hace unas semanas, recientemente terminé el curso de Experto en Internet de las cosas con Thinger y Arduino. Aprovechando que hace unos días he recibido el certificado quería comentarios el trabajo de fin de curso que realicé.

Uno de los casos de uso donde los campos de IoT y UC&C se dan la mano y complementan es el de ser capaces de comunicarnos con los dispositivos del IoT desde una plataforma de mensajería de comunicaciones unificadas, donde solemos hacerlo con el resto de compañeros, ampliando por tanto nuestro ámbito de actuación no sólo al de personas sino al de cosas, desde el P2P (people to people) al P2M (people to machine). Sobre está integración ya hablé anteriormente en este artículo del blog A un clic de las TIC. .

Aprovechando el conocimiento adquirido durante el curso me parecía interesante experimentar sobre las posibilidades de dicha integración por lo que elegí uno de los trabajos sugeridos por el equipo docente, un detector de intrusión, pero notificando la alerta a una plataforma de UC&C en lugar de por email o SMS como trabajo de fin de curso.

El alcance del trabajo no se queda en la notificación de la intrusión a la plataforma de mensajería sino que sugiere algunas mejoras, node-red, e introduce algunas tecnologías con las que se podría aumentar dicho caso de uso y hacerlo mucho más atractivo, como es la utilización de chatbots para interrogar a los dispositivos de IoT.

A continuación un diagrama del experimento implementado:

Con el resultado que se puede ver a continuación:

También probé la comunicación en sentido contrario, desde Webex Teams al dispositivo climastick, utilizando para ello un recurso de entrada en el código del climastick y un device token sobre la plataforma thinger.io para poder acceder al dispositivo conectado cuya API REST es utilizada desde IFTTT gracias al servicio “webhook” de ésta:

Dando el resultado mostrado a continuación:

Probando las posibilidades que ofrecía IFTT vi que no era posible elegir qué acción realizar sobre el recurso (encender o apagar) sin necesidad de especificarla de antemano porque sólo hay definido un trigger de Cisco Spark (el nombre anterior de Webex Teams), el de “If New message”, por lo que la acción a realizar sobre el recurso del climastick se va a hacer ante cualquier “nuevo mensaje” que se envíe en la plataforma, no pudiendo discriminar por el contenido del mismo, por ejemplo para decir “apagar” cuando queramos que se apague, o “encender” cuando queramos que se encienda. Necesitaba por tanto otro broker que pudiera inspeccionar el contenido de los mensajes por un lado e interactuar con thinger.io por otro.

Según la documentación consultada ese broker puede ser node-red ya que los nodos de Cisco Spark permiten discriminar por el contenido del mensaje (nodo Parse en node-red) por un lado, y por el otro recientemente se ha añadido a node-red las librerías de thinger.io. Se podía haber hecho sin utilizar thinger.io, sólo con node-red, pero el curso era sobre thinger.io :-). Adicionalmente, la inspección del contenido de los mensajes puede ampliarse hacia el desarrollo de un chatbot que respondería ante determinados comandos seleccionando sensores, realizando acciones sobre ellos, etc… en función de los parámetros que se le pasen. Node-red ofrece la posibilidad de integrar nodos de Inteligencia Artificial como IBM Watson por ejemplo que dotaría a dicho chatbot de una interfaz mucho más potente y una experiencia de usuario mejorada. La realización de dicho chatbot no fue parte del proyecto.

A continuación el diagrama general de funcionamiento y algunas capturas de pantalla dónde conseguí comunicar con éxito todos los elementos de la figura:

 

 

Cisco Live Europe 2019, automatización a todos los niveles

Hace unas semanas terminó Cisco Live Europe 2019, evento de 4 días de duración que se celebró, un año más, en Barcelona. Ya he asistido y escrito sobre él anteriormente (Cisco Live 2015, 2016, 2017 y 2018 ), y es que es un evento al que me gusta mucho asistir por varias razones. La primera es por el networking, es una magnifica ocasión para ver a muchos ex-compañeros de mi etapa de Cisco y anteriormente Tandberg, así como de los partners con los que trabajé o trabajo en la actualidad, la segunda es que la oferta de formación, demos y laboratorios es amplísima, pudiendo elaborar una agenda a medida que además te ayuda a entender lo que está sucediendo en el mercado IT a nivel global al ser Cisco uno de los líderes indiscutibles del sector, y la tercera es que es en España y está a 2 horas y media en AVE desde casa 🙂

Como en años anteriores, además de algunas sesiones teóricas pasé gran parte del evento en algunos laboratorios del devnet pero sobre todo interesándome por los productos de Cisco y sus partners que estaban en el World of Solutions. Si tuviera que elegir una palabra con la que describir el evento de este año sería Automatización.

Automatización a todos los niveles: Provisión, Despliegue, Operación y Aseguramiento, aprovechando la programabilidad de la infraestructura Cisco y el papel fundamental en todo esto de un Orquestador. En este sentido, me interesó una sesión sobre NETCONFIG y YANG para configuración remota de equipos. Leyendo un poco más sobre el tema se llega a Ansible y a su relación con NFV y SDN, me parece muy interesante el siguiente whitepaper de donde he extraído la imagen de más abajo:

Otra de las palabras más utilizadas durante el evento fue… Kubernetes, el orquestador desarrollado por Google para mejorar la gestión de contenedores docker en entornos de producción, muy importante también en entornos multicloud, otra de las palabras muy utilizadas durante el evento. A continuación una captura de una de las sesiones introductorias a Kubernetes:

Por supuesto tuve mis sesiones del track de colaboración, algunas referidas a la transformación del puesto de trabajo / flexible working, en los que el departamento de IT tiene que trabajar de la mano de Servicios Generales (Facilities) y Recursos Humanos para redefinir los espacios de trabajo (activity-based working). Se resaltó la importancia de las salas equipadas con equipos de videoconferencia y la capacidad de éstas de “sensorizar” la sala para ver entre otras cosas el número de asistentes a una reunión. Se produce aquí una interesante integración del mundo del IoT con la videoconferencia, posteriormente profundicé un poco más en ello a través de las sesiones del devnet referidas a las APIs de los equipos de sala (xAPI). Webex fue también protagonista de gran parte de las sesiones a las que asistí, me gustó mucho la sesión sobre cómo migrar de forma ordenada workloads de on-prem a la nube: meetings, videoconference, presense y call.

Gracias a algunas charlas y demos del World of Solutions pude comprobar la estrecha relación que hay entre las aplicaciones de colaboración y tecnologías adyacentes como SD-WAN (gran parte de los flujos de trabajo se están llevando a la nube pública, donde ésta tecnología es el rey), o WIFI, donde la oferta de Cisco Meraki juega un papel muy importante en el llamado Digital Workplace, y la onmipresente Seguridad.

También me gustaron las demostraciones de Italtel sobre Smart Working, configurando automáticamente un puesto de trabajo en un pool identificando al empleado en la entrada, Imagicle, con la nueva versión de su suite de apps sobre CUCM (recording, fax, gestión de colas, consola de operadora, etc…), Kurmi, para provisión masiva en entornos multifabricante, IBM y su integración de Webex con la inteligencia artificial de Watson, vBRICK para grabación y streaming integrado en la solución de colaboración de Cisco y Singlewire para notificaciones masivas a empleados en caso de alguna emergencia.

Una de las sesiones que más me gustó fue la de “La importancia de ser gestionado en Colaboración“, en la que de una forma amena se recorrieron todas las soluciones de gestión de colaboración de Cisco, tanto de la parte de provisión como de aseguramento, indicando las limitaciones de cada una y abriendo el abanico a 3rd parties. De hecho, se aseguraba que las soluciones nativas de Cisco no llegaban donde otras lo hacían, en concreto se resaltó Vyopta, con quien ya había tenido algún contacto en el pasado, posteriormente en el World of Solutions me gustó también la solución de Frink Analytics Lab a este respecto.

Por último os dejo un foto del primer día entrando al evento junto con un compañero, Jordi Cubells.

Certificado “Experto en Internet de las cosas con Thinger y Arduino” de la Fundación UNED

Hace unas semanas terminé con buena nota el curso “Experto en Internet de las cosas con Thinger y Arduino” cuya página de presentación podéis ver aquí.

De entre todos los cursos sobre IoT que hay en el mercado en plataformas como MiriadaX, Coursera, Udemy, EdX, … me decidí por el de la Fundación UNED por varios motivos:

  • El primero y más importante es el temario. Tras evaluar varios cursos fue el que, en mi opinión, presentaba unos contenidos más completos, cubriendo el amplio espectro de IoT, desde el hardware, con capítulos sobre electrónica digital, componentes, sensores, Arduino y herramientas de prototipado HW, hasta la parte de “más valor”, las aplicaciones de IoT y el Big Data, recorriendo todo el camino intermedio: protocolos de envío de datos, plataformas de IoT, seguridad, análisis de datos.
  • Tenía “cacharreo“, tras tontear durante algún tiempo con teoría me apeticía “hacer” cosas y con el precio del curso se incluía una plataforma de desarrollo de IoT que pondríamos en marcha, como así fue, y ya que iba a ponerme manos a la obra quería tener el soporte de expertos por detrás, lo que no ocurre en muchos cursos gratuitos.
  • El curso era de pago, parece que no pero “ayuda” a terminarlo. Esto fue fundamental ya que con la organización del TEDx de este año estuve “bloqueado” casi dos mes y es seguro hubiera abandonado de no ser por el precio, que no era alto, pero oye…

Como en otras entradas sobre formación, paso a describir lo más destacado con objeto de ayudarme en la comprensión y darle continuidad en el futuro. Destacaría lo siguiente:

  • Tener claro la Arquitectura de un Sistema de IoT, con todos sus elementos, desde los sensores/actuadores hasta la aplicación o servicio.

  • Centrándonos en la parte del microcontrolador, vimos las placas tipo Arduino donde se integra el microcontrolador en una PCB con pines de E/S, programador, puerto USB de conexión al PC, etc… que facilitan la curva de aprendizaje de la programación del microcontrolador para una tarea específica, y también las placas con Sistema Operativo, como Raspberry Pi o Orange Pi.

 

  • En el curso utilizamos la placa climastickv2 , todo un kit de desarrollo para IoT que integra varios sensores ambientales y de movimiento con un ESP8285, un microcontrolador con conectividad WiFi integrada que es evolución del ESP8266, el cual se suele encontrar integrado en una placa de desarrollo muy conocida llamada NodeMCU y es compatible con Arduino. Esto significa que podemos utilizar el IDE de Arduino para programar esta placa configurándolo convenientemente. El proceso completo lo podéis ver en el siguiente vídeo pero lo describo también más abajo porque al ser la primera vez que lo hacía lo encontré muy didáctico para poder utilizar otras placas en el futuro:

  • instalar en el PC el driver del fabricante del interfaz USB (a UART) del climastick
  • en el IDE de Arduino, instalar el “bootloader” que permite trabajar con el ESP8266 en lugar de con el microcontrolador orginal de Arduino, herramientas-gestor de tarjetas.
  • en el IDE, instalar las librerías que nos permiten hablar con los sensores del climastick por un lado (climastick.h), y por otro las librerías que permitan comunicar el climastick con la plataforma Thinger.io (thinger.io). (programa-incluir libreria).
  • en el IDE, asignar el puerto COM correspondiente a la conexión USB del climastick (panel de control-administracion de dispositivos).
  • Para poder volcar el programa que escribamos en el IDE en el climastick debemos seleccionar una placa compatible con éste ya que no se dispone de un perfil específico “climastick”, en este caso seleccionamos la placa Wemos D1 mini Lite (herramientas-placa), una placa que también tiene el ESP8255.

 

  • Puertos y buses digitales de los microcontroladores, los pines GPIO, sobre los que podemos leer o escribir. Algunos de ellos están destinados a buses de comunicación entre dispositivos (One Wire Bus, I2C, SPI, UART, etc…), típicamente el microcontrolador y el exterior (sensores, PC, etc…). Me pareció especialmente interesante I2C, librería wire, que es el bus que utiliza climastick y por tanto el utilizado en el curso para la mayoría de los sensores.

 

  • La programación de la placa e interacción con los sensores y puertos de entrada/salida, utilizando primero las librerías específicas de los sensores  y luego la desarrollada para el dispositivo climastick que facilita tanto la interacción con los sensores como la interfaz con la plataforma de IoT thinger.io. En ambos tipos de librerías aprendimos a examinarlas (.h y .cpp) para ver qué podemos hacer, el bus de comunicación que utilizar, etc… Los sensores utilizados fueron:
    • BME280. Temperatura, humedad y presión atmosférica.
    • TSL2561. Luminosidad.
    • MPU9250. Acelerómetro, giróscopo y brújula.

 

 

  • Plataformas de IoT. Me pareció muy interesante la aplicación dweet.io. A continuación se explicó toda la plataforma thinger.io que utilizamos durante el curso, me sorprendió la facilidad y funcionalidades de la misma, la cual gracias a la librería desarrollada permite utilizar placas del tipo Arduino. Analizamos varias plataformas del mercado, desde las más profesionales y completas de Amazon, Microsoft, IBM y Google, hasta otras Opensource muy interesantes, como las que podemos ver en la figura de más abajo.

  • Análisis de datos, con un introducción a los distintos algoritmos y técnicas de aprendizaje automático, herramientas de análisis como Weka o Matlab (esto me recordó a mi proyecto de fin de carrera) y una introducción a Big Data.

Me sorprendió mucho Weka, un software libre con mucha potencia y muchos recursos on-line para aprender a utilizarlo en profundidad, a continuación un pantallazo de uno de los ejercicios:

  • Prototipado harware, revisamos todas las fases: primero en una protoboard y luego el diseño del circuito y de la PCB en Frtizing y Eagle, con la exportación de los ficheros gerber correspondientes para su impresión en Seed Studio, e incluso pudimos visualizar la placa que diseñamos en 3D (aunque reconozco que no fue mi mejor ejercicio ;-):

Seguro me dejo cosas, pero no quería que me quedará una entrada muy grande, dejaré para un post posterior el trabajo fin de curso que hice.

La “desobediciencia inteligente de TEDxAlcarriaSt 2018”, un punto de inflexión

Hace un mes y medio finalizó TEDxAlcarriaSt 2018, fue el pasado Sábado 3 de Noviembre. El evento de este año supone un punto de inflexión en la evolución de TEDxAlcarriaSt ya que, como mucho gente me recordó tras el mismo, qué será lo siguiente?: 820 asistentes, 8 ponentes (4 hombres y 4 mujeres), una actuación en directo (nada menos que el orfeón y orquesta Joaquín Turina, más de 50 personas entre músicos y coro) y un presentador de excepción, Nacho Cano, han hecho de esta edición algo inolvidable. “¿Qué será lo siguiente?“, “difícil de superar“, son algunos de los comentarios que hemos recibido y como decía más arriba creo que marcan un punto de inflexión.

Pero antes de pensar en el año que viene, vamos a repasar un poco lo que ha supuesto el evento de este año y sobre todo qué novedades hemos incorporado, y han funcionado bien respecto a años anteriores y que deberíamos repetir.

Lo primero a destacar fue la elección del lema, que todos los ponentes acogieron con entusiasmo, era “Desobediencia Inteligente“. Un lema tan amplio que nos sirvió para poder presentar ideas en campos muy diferentes y tener por lo tanto un evento muy variado, como nos piden en TED.

Los ponentes que tuvimos en esta edición de TEDxAlcarriaSt fueron: Alfonso Ortigado Matamala, Jefe del Servicio de Pediatría del Hospital Universitario de Guadalajara y autor de numerosas publicaciones científicas, Juan Carlos Pajares, diseñador de moda y ganador de Samsung EGO #MBFWM17, Javier del Monte Diego, Arquitecto en MNN Arquitectos y fundador de la Asociación Jubilares, Sergio Cano Ortiz, Profesor Superior de Piano y fundador de la “Turina Symphony Orchestra”, Gracia Iglesias, Comunicadora cultural y Escritora de literatura infantil entre otros, Katia Hueso Kortekaas, consultora  y docente universitaria en temas de sostenibilidad y medio ambiente, Ana Carrasco, primera mujer en convertirse en Campeona del mundo de Motociclismo, y May López, experta en responsabilidad social corporativa, movilidad sostenible, y emprendedora.


Como seguramente os habréis dado cuenta, son cuatro hombres y cuatro mujeres, y es que después del evento del año pasado, donde para nuestra sorpresa (nunca habíamos pensado en ello) sólo tuvimos una mujer, este año decidí desde el principio estar muy atento a este tema e intentar la paridad.

Respecto al contenido de las charlas, fueron trabajadas como ningún año anterior, aparte del seguimiento habitual este año incorporamos ensayos grabados y feedback no sólo mío sino de coachs profesionales. En el siguiente collage se pueden ver algunos momentos de dichos ensayos.

Y a continuación podéis ver el resultado, las charlas de este año ya publicadas en youtube:

Este año también ha sido fundamental los patrocinadores. Tanto BASF, que respondió de forma increíble a nuestra propuesta de ir al Teatro y por lo tanto de incrementar, casi triplicar, su patrocinio, como del Ayuntamiento de Guadalajara, no sólo en forma de cesión del Teatro sino en los medios humanos y en la promoción del evento.

La incursión del cartel de TEDxAlcarriaSt en la red de MUPIs de Guadalajara nos ha dado mucha notoriedad y, a nivel particular, la sensación de que realmente hemos conseguido algo grande. Todavía recuerdo el primer evento cuando sólo pegué un cartel en la entrada de la Universidad:

 

 

 

 

 

 

 

 

En cuanto a promoción también me gustaría destacar los distintos medios que se han hecho eco del evento, tanto prensa escrita, como radio, o televisión:

  • Las entrevistas de Mónica Gallo (esRadio Guadalajara) o Aberto Girón (ser Guadalajara).
  • O el impresionante reportaje que nos hizo Inmaculada López en “La tribuna de Guadalajara”) días antes del evento y cuya versión pdf podéis encontrar aquí.

  • También el artículo de Álvaro Nuño en el Hexagono, donde hablaba de Pasado y Futuro simbolizados por El Tenorio Mendecino y TEDxAlcarriaSt, me gustó mucho.

Por último, el artículo publicado en Nueva Alcarria el Lunes siguiente al evento creo que ilustra muy bien lo conseguido este año, y como decía al principio del artículo, fija las expectativas de cara a futuro.

No quisiera acabar sin agradecer a todo el equipo que me ayuda, año tras año y seguimos creciendo, en la organización del evento, GRACIAS!

VoIP2Day 2018, tantas cosas por aprender

Hace unas semanas, el 14 y 15 de Noviembre pasados, tuve ocasión de asistir a la primera jornada del evento VoIP2Day que se celebró en el Wanda Metropolitano. Aunque había recibido la invitación años anteriores por una u otra razón no había podido ir, pero este año presté especial atención a la agenda de ponencias e hice un hueco para acercarme, en principio para ver un par de sesiones, pero eche el día, y no fue para nada en balde. Ayer estuve viendo las grabaciones de las ponencias que no había poder ver en directo y ante tal avalancha de ideas, tecnologías, proyectos, etc… he sentido la necesidad de escribirlo en algún sitio, aquí.

 

  • Blockchain mola, pero no hay que volverse loco, claramente hay un hype y a cualquier proyecto que le pegas la tecnología blockchain capta más atención (y dinero como nos enseñó José Enrique Puente (@jepuente_telco) pero muchas de ellas no tienen sentido. En el ámbito Telco también hay que mirar mucho donde se aplica pero efectivamente hay casos de uso interesantes, nos identificó 7 de ellos. En otra charla posterior Michael Ledema (@iedenam) hablo de pagos en voip a través de criptomonedas, una especie de blockchain PBX pero no me despertó especial interés. Googlear: lethean, open BTS.

 

  • Comunicaciones como servicio en modalidad software as a service (SaS) versus modalidad plataforma como servicio (CPaaS). Me pareció muy interesante las ventajas destacadas por Iván Sixto en su ponencia, sobre todo la parte de que sea más fácil integrar con los sistemas ya existentes en una empresa, ya que como luego nos mostró Jesús Martinez, de la Universidad de Murcia, de dicha integración surgen datos muy valiosos que explotar ((integración->Big Data->Machine Learning), en su caso utilizando Kamailio con Asterisk, proyectos (PBXCC y PBXApp). Googlear: openord, rsyslog, kafka, elasticsearch, kibana, segysis.

 

  • La importancia de la seguridad no sólo cuando estas sentado delante del ordenador, sino por ejemplo en una boda. Me gustó mucho la ponencia de Fernando M. Villares (@fmvillares) relativa a cómo securizó la boda de Messi. Me sorprendio el despliegue que hay que hacer, totalmente comprensible tras escuchar su charla respecto a los riesgos posibles. Para googlear: microsip, csimsimple, yeastar s20, zoiper, boxcryptor, ubiquity airview, inSSIDer, TAMCE 4G+, RTL2832u Spektrum. Otra charla interesantísima sobre seguridad, esta la he visto grabada porque fue el segundo día, fue la de José Luis Verdeguer, hablado de seguridad en entornos de SIP para telefonía, muy interesante su proyecto de SIP Firewall.

 

  • Webrtc sigue dando que hablar. Sobre webrtc por supuesto también se habló, después del hype de hace unos años, yo mismo asistí a múltiples charlas, presentaciones de producto, casos de uso, etc… sin que en realidad, en mi día a día como consultor de UC haya detectado un interés claro en los clientes más allá de casos de uso muy específicos. Respecto a webrtc, me gustaron mucho las charlas de Lorenzo Miniero (@elminiero) sobre Janus y sobre todo la de Saúl Ibarra (@saghul) sobre jitsi.org, una plataforma opensource de videoconferencia muy interesante y sobre la que me he propuesto investigar más. Sabéis que todo lo que sea videoconferencia… Googlear: jitsi, Janus, Issabel, Matrix (proyecto), electron (javascript).

 

  • La integración de IoT en el mundo de VoIP. Varias ponencias hablaron de IoT y su integración con el mundo de la voz IP. Desde casos específicos de redes LORAWAN y su integración con Asterisk o la utilización de IFTTT para disparar llamadas a un Asterisk, pero la que más me gustó en este sentido fue la de Ole (@oej). Era la primera vez que iba a VoIP2Day pero por lo que he visto en la grabación casi todas las ediciones las cierra Ole con una charla inspiracional y visionario de hacia donde va la tecnología para dar una idea de proyectos en los que trabajar ese año (advice on the way forward era el título de su charla). En este sentido, destacaría mensajes muy claros de su intervención. La PBX está muerta, no en el sentido estricto pero no va a evolucionar mucho más, el nuevo “escritorio son los dispositivos móviles y la mayoría de las interacciones se hacen vía “mensajes” no voz, y menos a la PSTN. En este sentido el IoT y el popurrí de standares tecnologías, etc… es un caldo de cultivo muy interesante sobre el que desarrollar nuevos e interesantes proyectos, puso especial hincapié en integraciones entre node-red, domoticz (home automation),  MQTT y Kamailio. Googlear: bareSIP.

Blockchain, IoT, webrtc, PaaS y seguridad, como decía al principio me pareció muy interesante la integración de los anteriores conceptos con el mundo más “tradicional” de la VoIP. Un evento muy interesante que es una invitación a “aprender más”, una de las cosas que más me gusta, pero no sólo a mí, como destacó Ole para cerrar el evento:

 

Curso “Agile Way of Working”, de Universitas Telefónica

La semana pasada asistí al curso Agile Way of Working, en Universitas, la Universidad de Telefónica de la que ya he hablado en un par de artículos: sobre el fenómeno de las Universidades corporativas en general en un artículo de “A un clic”, y más concretamente del programa del liderazgo de equipos que realicé aquí.

En este ocasión vuelvo a hablar de Universitas pero esta vez para hablar de Agile. Ese concepto tan de moda y que puede suponer toda una revolución en la forma de trabajar, algo que como sabéis me interesa sobremanera, así que fui al curso con mucha ilusión y ganas de aprender.

Ya había hablado de agilidad en varias ocasiones, una de ellas en la charla que dí en el campus madrid de google, hablando precisamente del modo de trabajar ágil, y otras muchas veces a través de las dos asignaturas que impartí durante 5 años en el postgrado de “Gestión ágil de proyectos” de IEBS: “macrotendencias tecnológicas y nuevo puesto de trabajo” y “colaboración en equipos ágiles” pero nunca había tenido la ocasión de estar 4 días completos inmerso en una formación monográfica sobre Agile.

Tengo que decir que la formación cumplió sobradamente con mis expectativas: además de formación en metodologías concretas, como SCRUM, Design Thinking o Kanban de la mano de ponentes de primer nivel, cubrimos la parte más cultural, de mentalidad ágil, desde varios puntos de vista. Me interesó sobre todo los testimonios y casos de éxito que mostraron, tanto internos como externos, lo que sin duda ayuda a tener una visión 360º de las posibilidades de esta nueva forma de trabajar, la apuesta decidida de Telefónica por implantarla y, sobre todo, confirmar que ya se está haciendo y que “no hay excusas” para al menos incorporar algunos principios ágiles en nuestro trabajo diario.

A continuación os dejo algunos tweets que publiqué con los ponentes de ese día y algunas fotos tomadas durante la formación:

Día 1.
Monográfico sobre SCRUM impartido magistralmente por Carmen Lasa (@carmen_lasa), de quien, casualidades de la vida, me dí cuenta tenía y leí un libro hace tiempo sobre metodologías ágiles precisamente. En la foto de más abajo, haciendo un caso práctico trabajando en un sprint y prototipando en papel para obtener un MVP.

Día 2.

Sesiones magistrales de Carlos Moure (@carlosmoure) y el profesor Joseph Pistrui (@nextsensing).

Día 3.

Intensivo de Agilidad de la mano de uno de los expertos mundiales, Jeff Gothelf (@jboogie), junto con los casos prácticos de Vistaprint (@yusokucu) y la experiencia emprendedora de Miguel Arias (@mike_arias).

Día 4.
Casos de éxito internos contados por sus protagonistas: Saúl García de Diego (@sgarcide) y Kim Faura (@kimfaura), y más formación por parte de Jeff.

Todo lo anterior bajo la supervisión y dirección de Carole Wettmann y el Dr Steven MacGregor (@spmacg), que también impartieron algunas sesiones actuando de perfecto nexo entre todo lo acontecido durante la semana.

Acabamos la semana de una forma especial, con una Haka:

Por último, una foto de un momento durante el curso con algunos compañeros: