sábado, 8 de diciembre de 2018

Data Mining with Data Lake strategy



La configuración de un lago de datos (Data Lake) es una estrategia perfecta para almacenar el conjunto completo de datos independiente de su grado de estructuración, su configuración, su velocidad de cambio, su pertenencia, su procedencia abierta o cerrada y su nivel previo de procesamiento hasta incluir el reflejo del evento puro que puede ser captado, almacenado y etiquetado en un solo repositorio capaz de almacenar la data completa de manera independiente bajo una frontera especificada durante el diseño del lago por el arquitecto de datos.

La ventaja del Data Lake sobre los tradicionales y hasta obsoletos Data Warehouse es enorme porque su flexibilidad permite la incorporación de data no estructurada, data flotante de redes sociales, data de repositorios meta y data transaccional disponible en Internet para procesar con la ventaja adicional que una vez definidos los criterios de frontera (Data Lake boundary) se puede dotar al lago de una serie de componentes artificiales basados en algoritmos de analítica de datos, machine learning, deep learning, digital twins y componentes de Internet de las Cosas (IoT) o más precisamente de Internet de las Nanocosas (IoNT) para dotar a los Data Lakes de Inteligencia Artificial configurando Data Lakes Inteligentes capaces de preprocesar relaciones entre los datos sin el diseño del usuario, procesando relaciones en forma individual o agregada e independiente de la jerarquía previa para configurar potenciales Clústers que pueden eventualmente ser usados como información para la toma de decisiones en los negocios con la enorme ventaja que de manera particular y dada la Big Data disponible, el usuario no podría detectarlos con los métodos tradicionales que la analítica de datos ofrece actualmente.

La configuración de Data Lakes Inteligentes implica el desarrollo de los siguientes procesos:

1. Selección de frontera (Data Lake Boundary Design)
2. Preparación de mecanismos de absorción de datos (Algoritmos de absorción)
3. Preparación de componentes de preprocesamiento de clústers (IA, IoT, IoNT, DT, etc.)
4. Iniciación de pilotos espontáneos de explotación y voladura de datos para generar clústers
4. Preparación de algoritmos de cultivo de datos primarios (Nurturing Data Lake)
5. Selección de criterios de exportación potencial de clústers para eventual análisis de usuario
6. Identificación y reparación automática de debilidades y cubierta de potencial fuga de datos
7 Configuración de acceso para cultivadores, explotadores y usuarios autorizados.

Esta estrategia de 7 simples pasos permite la configuración y construcción de un Data Lake seguro más allá de las marcas proveedoras de infraestructura tecnológica que se nos ofrece para su configuración, lo importante sigue siendo el concepto tecnológico que sustenta el desarrollo de auténticos lagos de datos en la manera como estos nos sirvan para sustentar la toma de decisiones empresariales en un medio tecnológicamente tan dinámico y cambiante como el actual.

Max Schwarz (mschwarz@bygsac.com)

lunes, 5 de noviembre de 2018

A brief history of management tools


Comparto mis notas sobre la evolución de las herramientas de gestión y la manera como la innovación en gestión va siendo momentáneamente desfasada respecto a la innovación en productos/servicios y nuevos mercados tecnológicos y de redes sociales como los que plantea el reto del presente. A brief history of management tools - Max Schwarz
http://repositorio.ulima.edu.pe/bitstream/handle/ulima/7100/Schwarz_Max_breve%20historia%20herramientas%20gestion.pdf?sequence=1&isAllowed=y

miércoles, 24 de octubre de 2018

Digital Twins con Inteligencia Artificial (IA) sobre Internet Industrial de las Cosas (IIoT)



La tecnología de gemelos digitales (digital twins) nos permite desarrollar modelos virtuales de procesos, productos y servicios reales que pueden ofrecerse en el mercado generando una correlación entre el mundo físico y el mundo virtual que permite enormes ventajas en el logro de experiencia de uso, confirmación de propiedades y características, así como pruebas de diseño en simulaciones cuasi reales que reducen el time-to-market hasta en un 50% con un considerable ahorro de costos.

La configuración de gemelos digitales es una realidad que actualmente opera en la industria con un impresionante grado de avance y aunque aún no está masificada como tecnología, sin embargo, es una poderosa herramienta disponible para la industria. Esta configuración permite obtener verdaderas replicas digitales de objetos funcionales, equipos, máquinas e instrumentos reales de la industria que pueden ser configurados con la mayor experiencia que la data de la realidad indica en la historia del uso del objeto en la realidad. Esto significa que el objeto sujeto de IIoT puede alimentarse de la Big Data de su experiencia con lo cual con pequeños algoritmos de aprendizaje pueden incluso aprender e interactuar de manera inteligente logrando un avance notable que puede incrementar la productividad industrial hasta en un 25% reduciendo los costos hasta en un 40% para la experiencia del proceso actual y hasta en un 65% para el caso de nuevas experiencias o la aplicación de prototipos de uso industrial y comercial.

El avance del internet de las cosas en combinación con inteligencia artificial mejorada con nuevas tecnologías como blockchain, EDGE Computing, Fog Computing y similares puede permitir una explosión de uso masificada actualmente vinculada a la IIoT, IoT y IoNT que puede transformar la manera como facilitamos la experiencia habitable en el mundo que nos rodea y lo mejor es que está literalmente disponible a la vuelta de la esquina. Las aplicaciones en la minería, petroleo, pesca, industria, comercio, finanzas, investigación y desarrollo de productos y servicios son infinitas y perfectamente sujetas de modelación bajo el nuevo concepto de gemelos digitales.  

Nota: EDGE Computing es el paradigma que permite explotar la información recolectada de dispositivos conectados a Internet de las Cosas (IoT) permitiendo que los datos no solo sean colectados en sitio sino también procesados en el lugar donde se generan dando paso a un sostenido concepto de “tiempo real” evitando así congestionar innecesariamente la nube. Esto puede ser promovido a través de tecnologías de tipo Fog Computing que permiten acercar la nube a los cúmulos de IoT donde se generan, colectan y procesan los datos para tomar decisiones y adoptar un comportamiento de respuesta inteligente.    

(mschwarz@bygsac.com)    - B&G Engineering SAC

viernes, 1 de junio de 2018

La técnica de la vectorización para la captura de datos en Inteligencia Artificial



A diferencia de los humanos que capturamos los datos de la realidad a través de los sentidos, las computadoras capturan los datos a través de números y arreglos de números llamados vectores. Los vectores son una forma poderosa de representar datos de la realidad por su inherente mutidimensionalidad espacial que representa mejor para las máquinas cualquier aspecto de la realidad sea a nivel de olor, sonido, texto, imagen o video.

El proceso de abstracción de la realidad a números y arreglos números para aprendizaje de máquina se denomina vectorización computacional y consiste en la descomposición del sonido, texto, imagen o video en pequeños sectores trazados con uno o varios vectores de referencia en forma de vectores, matrices, cubos de matrices o hipercubos matriciales dependiendo de la complejidad del objeto, proceso o transacción que requiera ser interpretado.

En el caso del olor, se hace una descomposición de componentes (principalmente gases, vapores y polvo) a manera de la cromatografía tradicional para codificar y procesar la información química de sus componentes y vectorizarla según la asignación de códigos a sus propiedades con lo cual se puede reproducir la manera como actúa el olfato humano.
En el caso del sonido que es una percepción de la vibración mecánica expresada en términos de variación de la presión atmosférica en el aire con ocurrencias normalmente periódicas y no periódicas o en combinaciones de las mismas tiene siempre una cierta frecuencia y período determinado que se traduce en una señal analógica continua que requiere transformarse en señal digital discreta que puede expresarse matemáticamente por un vector o una matriz vectorial con esas especificaciones que el ordenador puede fácilmente entender y procesar.  


En el caso del texto redactado sea manuscrito, en procesador de textos o ya como texto digitalizado, se puede sectorizar palabra por palabra en un vector que tenga tantas dimensiones como palabras tenga el lenguaje madre que lo origina. Este proceso palabra por palabra es bastante lógico pero ineficiente en términos de extensión de data, más si consideramos que el idioma español tiene más de 88 mil palabras puras y más de 150 mil si se incluye americanismos (el idioma ingles supera las 350 mil palabras). Eso lo hace poco práctico, por lo que para estos casos se procede mejor con una estrategia de vectorización semántica con lo cual se reconoce patrones de palabras relacionadas o conectadas como si fueran cúmulos de palabras donde el vector puede trazar el cúmulo directamente y así lograr que la computadora entienda semánticamente para el procesamiento de máquina. En ese contexto el “keyword” sería espacialmente el centroide del cúmulo de palabras.

En el caso de las imágenes dibujadas o en fotografía, se ha recurrido a la representación por medio de unidades mínimas de imagen digital denominadas comúnmente “pixel” por medio de vectores tipo RGB o HSV. En el caso de los vectores RGB (Red-Green-Blue) cada imagen es referida a un conjunto de vectores por cada pixel con su respectiva combinación numérica de intensidades RGB según los colores que proyecta ya que con la combinación de estos tres colores (rojo, verde y azul) salen todos los colores posibles que conocemos. Con esto se conforma una matriz y su tridimensionalidad da un cubo que representa directa y en forma única el conjunto vectorial o matricial que corresponde específicamente a la imagen que quiere procesarse para el entendimiento computacional de una máquina. De igual forma sucede en el caso de vectores tipo HSV (Hue-Saturation-Value/brightness) donde cada vector identificado señala la saturación, matiz y brillo de cada pixel como característica centrales que permiten identificarlo en lenguaje de la máquina.

En el caso del vídeo el tratamiento es similar puesto que un vídeo es esencialmente una superposición de imágenes en una secuencia de tiempo que puede ser vectorizada imagen a imagen conformando un hipercubo de matrices único para cada vídeo que puede ser perfectamente leído y entendido por la máquina para efectos de análisis.
El propósito de la vectorización de datos para IA es la transformación de la realidad objetiva en conjuntos de arreglos numéricos que permitan la entrada lógica para el procesamiento de datos que puedan generar información relevante para la toma de decisiones por parte de la máquina.

Una vez completada la captación de datos de la realidad por medio de la vectorización de entradas, se inicia la configuración de un patrón para el proceso de reconocimiento diferenciado de los patrones obtenidos entre grandes volúmenes de datos (BigData) con lo que puede detectarse personas y objetos en determinados lugares y espacios temporales, reconocer preferencias, identificar tendencias comerciales y patrones de consumo, prospectar experiencias y hacer análisis predictivo puro o combinado sobre casi cualquier aspecto de la realidad. ¡Una poderosa herramienta al alcance de nuestras manos!!

jueves, 31 de mayo de 2018

El método de partículas y un problema millonario



Usted pagaría un millón de dólares por la solución de un problema matemático?


Las ecuaciones de los fluidos se modelan matemáticamente por un conjunto de ecuaciones popularmente conocidas como las ecuaciones de Navier-Stokes y el Clay Mathematics Institute está pagando un millón de dólares a quien consiga resolver ese problema.         

Poesía de números en forma matemática para algunos y una herramienta vital en nuestra sociedad para otros, estas ecuaciones tienen una importancia tan grande que no es sorpresa ser uno de los problemas del milenio por los que se paga tan grande suma de dinero. Estas ecuaciones pueden ser usadas para modelar el clima, todo tipo de flujos de agua, pronosticar corrientes marinas, proyectar hélices de navíos, hasta los movimientos de las estrellas dentro de las galaxias. Y como el aire también es un fluido… el flujo de aire alrededor de las alas de un avión, la propagación de humo en un incendio, los efectos de la polución en ciudades, etc. ¡Las aplicaciones podrían llegar a un millón!

Actualmente no sabemos cómo resolverlas. Entonces, ¿cómo es que tenemos tantas aplicaciones de ellas? Esto es gracias a los modelos matemáticos diseñados para computador o como los matemáticos llaman métodos numéricos. Hoy día hablaremos de uno de ellos que ha demostrado gran importancia para aplicaciones: el método de partículas.

Los métodos numéricos suelen ser complicados más este método traduce matemáticamente la física real del problema: ¡el fluido está formado por partículas de fluido!  Es verdad, el agua, el aire o cualquier fluido en realidad son moléculas del fluido manteniéndose próximas pero libres. La esencia de este método es intentar traducir este comportamiento a los modelos matemáticos. Así las ecuaciones arriba ya no se consideran en un ambiente continuo sino en una nube de partículas de fluido, lo que simplifica bastante la complejidad de esas ecuaciones difíciles.

Podemos corroborar el éxitos de este método al ver las impresionantes escenas con agua de la película de Disney Moana, en donde Disney creó su propio motor de simulación de agua basado en este método, el módulo splash. Como esta, muchas escenas super realistas de agua en la industria del entretenimiento se realizaron usando este método tan natural a la física de los fluidos y efectivo. Hasta que algún matemático nos sorprenda con la deseada solución explícita, los métodos numéricos y en particular el método de partículas seguirá nos sorprendiendo con las increíbles simulaciones que a pesar de ello podemos realizar con fluidos actualmente.


miércoles, 16 de mayo de 2018

Enfoque colaborativo Crowdthinking to Crowdworking

Protocolos de Innovación empresarial bajo el enfoque “Crowdthinking to Crowdworking”

http://repositorio.ulima.edu.pe/handle/ulima/6073

sábado, 12 de mayo de 2018

Técnicas y Métodos de medición del Capital Intelectual

Compartimos el articulo "Revisión de la literatura de las técnicas y métodos de medición del Capital Intelectual" publicado en UCSA  Vol 5 Nro 1, 2018 elaborado en la Facultad de Ciencias Empresariales y Económicas de la Universidad de Lima por los investigadores Elizabeth Otero y Max Schwarz 

domingo, 6 de mayo de 2018

Social Network Analytics (Analítica de Redes Sociales)



Las redes sociales constituyen una extensión ampliada del capital relacional del ser humano proyectado en plataformas como Facebook, Twitter, Instagram, Whatsapp, Google+, Pinterest, Line, Telegram, Snapchat,  Linkedn, Youtube, Tagged, Haboo, Tumblr, SoundCloud, Badoo, Spotify, Flickr y similares que permiten una interacción entre la persona, la marca, la empresa, la institución o la organización  y su red de contactos generando una visibilidad cuya privacidad es parcialmente graduable por el propio usuario(s). Es natural que en este contexto aparezca la necesidad de mejorar la efectividad del uso de las redes sociales en particular cuando se enfocan al desarrollo de modelos de negocio, la comercialización de productos servicios, la gestión transaccional de beneficios, emociones y experiencias personales, profesionales e institucionales u organizacionales donde sea aplicable. 

La analítica de redes sociales es la técnica de análisis que se utiliza para obtener las principales estadísticas de desempeño de las mismas y evaluar la performance para poder planificar una gestión efectiva de las redes sociales a las cuales estamos vinculados. Para comprender mejor este campo del conocimiento es necesario definir brevemente algunos conceptos:

Engagement: métrica que refleja la interacción entre tu red social y tu comunidad de usuarios  
CPC: Costo por Click
CPM: Costo por millar de impresiones (apariciones)
CPL: Costo por Lead 
Lead: Es la categoría de usuario interesado (potencial cliente) antes de convertirse en cliente (se llama Lead normalmente cuando se suscribe o pregunta)
Lead Nurturing: Proceso de interacción y contacto con Leads
CPA: Costo por adquisición (cuando el cliente ha comprado)
CPV: Costo por visualización: (costo total/número de visualizaciones)
CTR: Mide la tasa de Clicks como: (Número de clicks/número de impresiones) x 100
Tasa de Conversión: (Número de ventas o conversiones/Numero de contactos) x 100
ROI: Retorno de la inversión en la red social : ((Ingresos-costos totales)/Costos totales) x 100
Influencer: persona con credibilidad en alguna materia específica que tiene la capacidad de generar reacciones en el público objetivo
Follower: Usuario que sigue a otro en una red social
Hashtag: Es un tema que es tendencia en redes sociales, se usa anteponiendo # al tema
Fan: Usuario que gusta de una red social
Klout: Nivel de relevancia, popularidad, prestigio o reputación de un usuario en redes sociales
Astroturfing: Promover o genera comentarios en favor de una marca
Crowd ( -sourcing, -working, -funding, - speaking): colaboración abierta on line alrededor de un proyecto re material de recursos, trabajo, obtención de fondos o aprendizaje.
Engagement Facebook
((# me gusta + # de compartidos + # de comentarios)/ Usuarios alcanzados) x 100
Engagement Twitter
((# me gusta + # de retuits + # de menciones)/ Usuarios alcanzados) x 100
Engagement Instagram
((# me gusta + # de comentarios)/ Usuarios alcanzados) x 100
Engagement LinkedIn
((# recomendaciones + # de compartidos + # de comentarios)/ Usuarios alcanzados) x 100
Engagement Pinterest
((# me gusta + # de guardados + # de comentarios)/ Usuarios alcanzados) x 100
Engagement Google+ = ((# +1 + # de compartidos + # de comentarios)/ Usuarios alcanzados) x 100
Plataformas de Analítica de Redes sociales recomendadas:

Para twitter
https://moz.com/followerwonk/analyze
https://audiense.com/
https://tweetreach.com/

Para websites
https://analytics.google.com/
http://howsociable.com/
http://keyhole.co/

Para integrar todas tus redes sociales:
https://www.cyfe.com/
https://klout.com/home

La analítica de redes sociales se vuelve necesaria para mejorar la eficiencia en tiempos y costos del uso de las herramientas en el canal on line y para mejorar la eficacia de la comercialización y canalización de productos, servicios, beneficios, emociones o experiencias en este nuevo canal, es decir para mejorar la efectividad de las campañas que se inician en el mundo de la Internet. Este es un primer paso para la generación de data relevante que pueda servir para la toma de decisiones las cuales en una primera escala pueden analizarse en forma manual pero una vez que se generan grandes volúmenes de datos (BigData) se requiere recurrir a nuevas técnicas como la inteligencia artificial para lograr encontrar las mejores y más apropiadas estrategias que permitan integrarnos al nuevo mercado on line que queremos dominar.

Mucha suerte con la experiencia y espero que estas notas sean de utilidad para ello.    

lunes, 30 de abril de 2018

Eficiencia de la α-Ciclodextrina como reemplazo del Cianuro en la recuperación del oro


Recomendamos revisar una alternativa ambiental y comercial para lograr el potencial reemplazo del cianuro en el proceso de lixiviación del oro que es perfectamente compatible con el medio ambiente. Se trata de una familia de moléculas de monosacáridos producidas por conversión enzimática a partir de almidón llamada Ciclodextrina (una especie de azúcar) que permite una extracción selectiva de oro bajo determinadas condiciones de reacción. Esto permite un amplio campo para la investigación comercial y académica para perfeccionar el modelo planteado y lograr implementarlo en las minas de manera comercial.



El proceso reactivo de α-Ciclodextrina con soluciones de oro ha sido demostrada en la investigación adjunta permitiendo la formación temprana de complejos iónicos ricos en oro que facilitan una extracción ambientalmente segura de oro metálico del mineral de cabeza que se quiere lixiviar con lo cual queda configurada la tecnología para uno de los primeros reemplazos para el cianuro que es actualmente el reactivo por excelencia usado para la recuperación del oro en la industria minera. Los científicos han logrado sintetizar un proceso ambiental alternativo al cianuro que sea de similar eficiencia para recuperar oro de manera comercial se requiere se requiere combinar α-Ciclodextrina con KAuBr4 en agua logrando un ambiente de recuperación selectiva de oro del mineral lixiviado.




Recomiendo revisar el trabajo de Investigación:
Liu, Z.; Frasconi, M.; Lei ,J.; Brown, Z.; Zhu Z.; Cao, D.; Lehl, J.; Liu, G.; Fahrenbach, A.; Botros, Y.; Farha, O.; Hupp, J.; Mirkin, C.; Stoddart, F. (2013). Selective isolation of gold facilitated by secondsphere coordination with a-cyclodextrin. Nat. Commun. 4:1855 doi: 10.1038/ ncomms2891 (2013).



sábado, 28 de abril de 2018

¿Cómo se mide la accidentabilidad en la industria minera? Índices de Accidentabilidad vs Ecuaciones de Estado


Índices de Accidentabilidad vs Ecuaciones de Estado 

El índice de accidentabilidad de la industria minera se mide tradicionalmente como una combinación lineal de la frecuencia y la severidad de los accidentes. Esta metodología es precaria y a toda luz insuficiente puesto que no toma en cuenta el riesgo geológico ni los esfuerzos de control en la gestión que las compañías mineras puedan adoptar. Sin embargo de esta medición dependen decisiones importantes, tales como el costo de las primas de seguros, el esfuerzo y nivel de fiscalización regulatoria, los esfuerzos de gestión de las organizaciones entre otras. Es por ello que investigadores como Qi Lixia (2015) han incorporado un nuevo método construido a partir de ecuaciones de estado para el caso de minas de carbón en China complementariamente dos componentes adicionales: el grado de control de la gestión y el grado de la complejidad de la operación los cuales sensibilizan los índices a partir de una nueva forma de cálculo basada en ecuaciones de estado donde la accidentabilidad del periodo actual depende de la accidentabilidad del período anterior afectado por las nuevas variables de estudio, sin embargo la investigación de Lixia considera que la ecuación de estado actúa en condiciones perfectas asumiendo un error de cero, lo cual no necesariamente refleja el comportamiento de los sectores en condiciones reales. 


Si analizamos la introducción de los nuevos componentes propuestos por Lixia en la efectividad de la predicción del índice de accidentabilidad de la industria minera incluyendo un factor de error real que depende de la entropía de la información que sustenta los registros de la estadística de seguridad de las minas podremos establecer si esta nueva medida lograda a partir de las ecuaciones de estado genera en el Perú una mejor correlación respecto a la que puede lograrse con la regresión lineal aplicada en el sistema de medición tradicional.

El método tradicional incluye un Índice de Frecuencia (IF) y un Índice de Severidad (IS) definidos de la siguiente manera:

IF=(NAIF*200,000)/NTHHT

IS=(NDPAIF*200,000)NTHHT

IA= (IF*IS)/200

Donde:

NAIF: Número de Accidentes Incapacitantes y Fatales ocurridos
NTHHT: Número total de Horas-Hombre trabajadas
NDPAIF: Número de días perdidos por accidentes incapacitantes y fatales
IA: Índice de Accidentabilidad

El método desarrollado por Qi Lixia es el siguiente:

Y(K)=((H)/C)+((Y(0)-(H/C))*(1-C)K )

Donde:

Y(K): Estado de la seguridad en el instante k
Y(0): Estado de la seguridad en instante inicial
H: Grado de complejidad de la operación
C: Grado de Control de gestión de la operación

Ahora bien si ampliamos la ecuación de estado en forma extendida incorporando un factor de error distinto de cero tenemos una ecuación generalizada de estado como la siguiente:

Y(K)=(((H+W)/C)+((Y(0)-((H+W)/C))*(1-C)K )

Donde sí W=0 se tienen los resultados obtenidos en los trabajos de Lixia

En este análisis W es un factor que no puede ser despreciado porque su introducción puede generar un impacto determinante en los resultados. En el análisis de la información de la estadística de la seguridad minera reportada en Perú entre el año 2010 y 2015 se pueden encontrar múltiples factores potenciales de error que pueden aproximar un valor de W distinto con impactos significativos en la definición del estado de la seguridad en un momento determinado. Sin embargo y dado que los factores podrían ser tan diversos como el temor al reporte por multas, las restricciones de cuidado legal de los reportes o la falta de transparencia por la informalidad de la entidad que reporta entre otros muchos, este factor de error se vuelve complejo de analizar y requiere un mínimo de consenso con el regulador para lograr una medición objetiva de la accidentabilidad en la industria

Para los investigadores que estén interesados en profundizar más sobre este interesante tema recomendamos leer los siguientes trabajos:

Cao, Q y Chen, W. (1999). Research on Mine safety target management method and its application software. Industrial Safety and Environmental Protection (2), p 25-29

Li-Xia, Q. (2013). A multiple factors safety prediction algorithm based on genetic neural networks in coal mine safe-state. Sensors & Transducers, 159(11), 385-390. 

Li-Xia, Q. (2015). A calculation model of coal mine safety management based on Kalman filter Algorithm. Journal of Chemical and Pharmaceutical Research 7(3), p 1204-1209

Long, R., Sun K., Neitsel R., (2015) Injury risk factors in a small-scale gold mining community in Ghana´s upper east region. International Journal of Environmental Research and Public Health (12), p 8744-8761

Maio, F. D., Vagnoli, M., & Zio, E. (2015). Risk-based clustering for near misses identification in integrated deterministic and probabilistic safety analysis. Science and Technology of Nuclear Installations, doi:http://dx.doi.org/10.1155/2015/693891

Martin, D.  K., & Black, A.  (2015).  Preventing serious injuries & fatalities:  Study reveals precursors & paradigms. Professional Safety, 60(9), 35-43.

Scotton, C.  R.  (2013).  New risk rates inter-industry differentials and the magnitude of VSL estimates. Journal of Benefit-Cost Analysis, 4(1), 39-80. doi:http://dx.doi.org/10.1515/jbca-2012-0015


lunes, 23 de abril de 2018

Tecnología Blockchain para el reporte de recursos y reservas minerales con NI-43101



El reporte NI-43101 bajo el estándar del Código JORC es el instrumento técnico por excelencia que usa el mercado para reportar los recursos y reservas de una mina que pueden ser aceptados por terceras partes como bancos, inversionistas, reguladores, socios comerciales, grupos económicos y toda parte interesada en evaluar o dimensionar un activo minero. Para la confección del reporte NI-43101 se utiliza los servicios profesionales de personal calificado QP (Qualify Person) en geología e ingeniería de minas así como las distintas especialidades que se requieren para la calificación de recursos minerales y la descripción apropiada del activo minero que se está reportando.  

En múltiples apuntes anteriores de nuestro blog donde hemos resaltado la importancia de calificar los recursos y reservas de mina en particular en nuestra nota sobre Reporte Técnicos http://max-schwarz.blogspot.pe/2013/02/reportes-tecnicos-del-tipo-ni43101.html donde se especifica con mayor detalle los contenidos mínimos y criterios para la elaboración de estos reportes.

En esta actualización queremos incorporar la tecnología Blockchain como una manera apropiada de preservar la información de los recursos y reservas minerales de un activo minero asegurando la inviolabilidad de la información reportada sobre la base de la futura configuración de una base de datos distribuida (blockchain) donde pueda integrarse la empresa de perforación diamantina, el laboratorio de análisis, la empresa titular minera, el estado regulador, los bancos y todas las distintas partes interesadas en una sola red de validación con un algoritmo de consenso para validar la información de la base de datos del coreshak de testigos que documentan las reservas de una mina. Esta manera de operar con Blockchain asegura la información al 100% permitiendo incrementar la confianza, evitar la existencia del error y eliminar la potencial manipulación de la información con el uso de esta nueva tecnología ahora al alcance de todos.


Con esta nueva tecnología los testigos de los taladros geo referenciados son ahora documentados y encriptados desde el momento de su extracción para operar una nueva blockchain con la construcción de bloques a los que se le agrega la información geológica y de laboratorios para la estimación de reservas y recursos de mina. El resultado es una base de datos distribuida más segura y transparente que beneficia a todos los involucrados en este mercado. Una nueva oportunidad para aplicar la tecnología y lograr importantes beneficios para todos.


jueves, 12 de abril de 2018

¿Cómo encriptar activos digitales? Calculadoras de hash - Base de Blockchain


A continuación te presentamos y recomendamos 2 interesantes calculadoras prácticas para encriptar y/o desencriptar documentos, archivos, contratos, expedientes, vídeos, firmas, websites o cualquier activo digital de manera superpráctica para asegurar la intangibilidad del activo lo cual puede ser la base para construir tu propia blockchain.

http://md5decrypt.net/en/Sha256/

sábado, 31 de marzo de 2018

La revolución del Internet de las Cosas


El termino en inglés “Internet of Things” (IoT) o en español “Internet de las Cosas” es utilizado comúnmente para referenciar el campo de la interconexión digital de las máquinas, dispositivos, equipos, aparatos y objetos en general  a través del internet. Este concepto es poderoso en términos de alcance y de posibilidades de aplicación doméstica, urbana, comercial, corporativa, ambiental, industrial, productiva, de control, de servicios y de infraestructura para facilitar la vida de las personas y de las organizaciones con un mejor uso de los recursos disponibles.

El internet de las cosas ha evolucionado para incluir aspectos de inteligencia artificial capaces de alimentar naturalmente las condiciones cambiantes del entorno para producir respuestas adaptativas con salidas mejoradas basadas en el autoaprendizaje que permitan lograr una mayor performance del sistema interconectado de objetos. Esto implica el desarrollo de capacidades de adaptación para hacer frente a sistemas complejos de comportamiento caótico que no obedecen a reglas deterministas tal como se presenta en la realidad diaria. 

Los proyectos integrados de internet de las cosas generan desarrollos cada vez más inteligentes, paralelos, masivos y esencialmente adaptativos con menores consumos de energía y con una creciente y preocupante amplia independencia del factor humano. Actualmente existen ciertas tendencias en el campo del internet de las cosas: Industrial Internet of Thing (IIoT) o Internet de las cosas para la Industria, Enterprice Internet of Thing (EIoT) o Internet de las cosas empresarial y lo más reciente en investigación que es el  Internet of Nano Things (IoNT) o Internet de las Nanocosas con tendencia a usar equipos cada vez más pequeños y poderosos en su interconectividad para el uso cotidiano. 
     
Al 2018 existen en el planeta cerca de 50,000 millones de dispositivos conectados bajo esta tecnología en distintos grados de evolución. La experiencia de su operacionalidad será la que determine la mejora de las nuevas generaciones de dispositivos que operen con ella.  En ese contexto es claro que los principales retos para el desarrollo de esta tecnología serán básicamente la reducción de tamaño de los dispositivos, su autonomía en términos de energía, la capacidad algorítmica para actuar con inteligencia artificial y adaptarse a los cambios así como la evolución de los protocolos comunicacionales para la interacción entre los dispositivos que conforman el sistema. Esto implica que los futuros desarrollos de Internet de las Cosas estarán necesariamente enfocados en lograr que la percepción de entradas, la capacidad de decisión, el procesamiento algorítmico, la calibración de las respuestas de salida, la ejecución de las respuestas y su capacidad de evaluación para mejora se puedan producir directamente en el propio objeto o dispositivo y no en computadoras remotas alejadas del sistema de dispositivos interconectados. Es un reto que con la actual tecnología disponible no será difícil de superar en el corto plazo para la humanidad.

Dr. Ing. Max Schwarz   mschwarz@bygsac.com



10 reformas tecnológicas estructurales urgentes para el sector público



El ciudadano del siglo XXI se merece el acceso democrático a servicios públicos de bajo costo con alta calidad, confiabilidad, seguridad, rapidez y transparencia por parte del Estado. Con el avance de la tecnología hoy más que nunca esto es posible y puede ser una pronta realidad. Con ello se eliminan los intermediarios y se reduce la enorme y cara burocracia estatal, reduciéndose notablemente la corrupción en los servicios públicos.  A continuación presentamos un breve conjunto de reformas que el estado debe implementar para  adecuar su infraestructura tecnológica a estas nuevas exigencias:
  1. Blockchain para los Registros Públicos
  2. Voto electrónico
  3. Pago digital para el uso de servicios públicos y pago de impuestos
  4. Internet de las cosas para SmartCities en zonas públicas
  5. Inteligencia artificial para la predicción de fraude patrimonial y tributario
  6. Blockchain para el proceso de aduanas y comercio internacional
  7. Gobierno electrónico para licencias, permisos y trámites
  8. Blockchain en SCM pública de servicios de salud
  9. Sistema Inteligente de Seguridad Ciudadana
  10. Sistema Inteligente de transporte masivo

El uso de la tecnología blockchain para el registro público permitirá registrar en forma segura y confiable el registro y las transacciones de propiedades evitando la manipulación, reduciendo los costos de registro y actualización a la vez de eliminar la intermediación sobre la base de una interconexión con las principales agencias oficiales de custodia de identidad y tasación de propiedades. Si este registro que normalmente es urbano e industrial se amplía a su vez a la propiedad  del campo se puede dotar de valor a enormes sectores aun no incluidos en el sistema financiero con el consecuente desarrollo de nuevas industrias relacionadas sobre la base de una propiedad estable (como la forestal, acuícolas y agroindustriales entre otras).

La adopción de tecnologías de voto electrónico permitirán reducir el costo de las consultas ciudadanas para la toma de decisiones tan necesarias para validar futuras reformas así como sistematizar los procesos electorales para las elecciones de autoridades. El voto electrónico permite acelerar el conteo de votos, obtener resultados casi en tiempo real, democratiza el acceso a personas con discapacidad, facilita la participación ciudadana y reduce los costos del proceso de manera segura y confiable (Existen mecanismos de encriptación e incluso el uso de tecnología blockchain combinada que permite brindar los más altos niveles de seguridad y auditabilidad para garantizar la transparencia de los procesos electorales).

Los mecanismos de pago digital para el uso de servicios públicos y el pago de impuestos se vuelven claves para eliminar la evasión fiscal, reducir la intermediación financiera innecesaria, reducir los costos de transacción y aumentar la trazabilidad de las transacciones. El Estado requiere promover masivamente la transacción digital para evitar la informalidad de las transacciones en economías de cash que evade impuestos y evita la trazabilidad de los fondos y las operaciones. Se requiere masificar la posibilidad de usar el dinero digital promoviendo la inclusión financiera con medios de pago alternativos utilizando tecnologías celulares sobre la base de banca celular con aplicaciones SMS seguras y masificación de códigos QR o el uso de criptomonedas donde sea aplicable mediante la implementación de blockchain privadas para pagos e interacciones Estado-Ciudadano. 
   
La adopción de tecnologías basadas en Internet de las cosas para SmartCities en zonas públicas permitirá dotar de facilidades y acceso a internet con WiFi,  WiFi AC, WiFi AD, y WiFi HaLow a espacios públicos como instalaciones de servicios, parques y jardines para interconectar equipos de ejercicio, entrenamiento, señalización y rutas que permitan promover usar los servicios públicos con mayor intensidad a la vez de hacer deporte y descansar o relajarse con soporte tecnológico de alto nivel. 

El uso de técnicas de Inteligencia artificial para la predicción de fraude patrimonial y tributario permitirá identificar patrones de riesgo entre los perfiles de los contribuyentes buscando detectar operaciones anormales, transferencias estructuradas entre redes de intereses, transacciones sospechosas, signos exteriores de riqueza y comportamiento en redes sociales y financieras en comparación con las declaraciones juradas y el estado de los activos, ingresos, bienes y rentas declarados. Este mecanismo permitirá procesar millones de datos en solo unas pocas horas para predecir potencial fraude fiscal y patrimonial con la finalidad de adoptar medidas preventivas y correctivas para evitar su ocurrencia de manera temprana. Las pérdidas económicas para el Estado por estos conceptos son del orden de varios miles de millones de dólares y pueden con estas técnicas ser detectados a tiempo protegiendo al Estado ante las posibilidades de consumar el fraude de manera sencilla y a costos razonables.

La implementación de la tecnología blockchain para el proceso de aduanas y el comercio internacional permitirá reducir notablemente los tiempos y tramites de importaciones y exportaciones (incluyendo la emisión de cartas de crédito y la generación de certificaciones y permisos oficiales) a niveles de unas pocas horas en procesos que tradicionalmente duran semanas o incluso meses. Este proceso permitirá a su vez reducir los costos de la cadena de suministro exportadora o importadora con beneficios directos  para el consumidor final a la vez de facilitar y transparentar el proceso aduanero y de recaudación de impuestos en Aduanas provenientes de estas transacciones. Se requiere articular centralizadamente al operador, el cliente, la agencia de aduana, las empresas certificadoras, la autoridad aduanera fiscal, los bancos y las aseguradoras en una base de datos común verificable por conceso en una blockchain privada que asegure una transacción rápida, eficiente, segura y transparente que haga competitivo el comercio internacional.

La necesidad de implementar mecanismos de gobierno electrónico en todos los niveles del aparato estatal para el otorgamiento de licencias, permisos y trámites es urgente dado la enorme intermediación, corrupción y burocratización de los tramites regulatorios. Este proceso de tramite directo elimina la necesidad de tramitadores, gestores e intermediarios, reduciendo los tiempos e incrementando la seguridad y la transparencia de la información  que se procesa así como permitiría el cumplimiento de los plazo legalmente establecidos para la calificación y aprobación de las licencias y permisos que muchas veces constituyen una verdadera traba que retrasa la tan necesaria inversión pública y privada que el desarrollo necesita.

El uso de Blockchain en cadenas de suministro públicas de servicios de salud permitirá la democratización del acceso a la salud para la inmensa mayoría de ciudadanos con lo cual la historia clínica queda centralizada para privilegiar el diagnostico que permita tratamientos apropiados con el uso de recetas electrónicas sincronizadas con la cadena de suministro global de medicamentos regulados para su entrega directa en la farmacia más cercana al lugar de vivienda del ciudadano reduciendo los costos de transacción y distribución a la vez de eliminar la intermediación de los almacenes intermedios, las cadenas de farmacias y las redes de laboratorios que encarecen el sistema para las atenciones de capa simple y compleja.     

La adopción de un Sistema Inteligente de Seguridad Ciudadana permitiría la introducción de técnicas de inteligencia artificial basadas en redes neuronales, algoritmos genéticos, algoritmos de enjambre y similares para gestionar en tiempo real los mapas de riesgo, generar alertas tempranas ante la inminente criminalidad, interconectar los bancos de datos y registro de los delincuentes y la interacción entre los diversos involucrados en mantener el orden público para protección de los ciudadanos. Esto a su vez  puede interconectarse con sistemas predictivos basados en tecnología de imágenes de video para detectar a tiempo el crimen potencial y dar la posibilidad de actuación con mayor celeridad ante eventos indeseados racionalizando así el uso de la fuerza pública y los servicios policiales y municipales de vigilancia y seguridad ciudadana.

Finalmente se requiere la implementación de un Sistema Inteligente de transporte masivo que permita reducir los costos logísticos del transporte urbano e interurbano, reduciendo el tiempo de transporte y la espera de los ciudadanos generando mayor calidad de vida. Este sistema requiere la articulación con el uso de técnicas de inteligencia artificial de buses, trenes, semáforos, estaciones de control, rutas de acceso, rutas de salida y sistemas de alimentadores de manera que el transporte masivo sea seguro, quede racionalizado, con un costo competitivo, permita el acceso a puntos clave de las ciudades y cuente con la confiabilidad y el costo competitivo que se requiere con una consecuencia económica, ambiental y social positiva que mejora la calidad de vida del ciudadano.    

Dr. Ing. Max Schwarz   mschwarz@bygsac.com



lunes, 19 de marzo de 2018

Costos Logísticos en SCM Agroexportadoras-Perú

Les comparto mi artículo "Impacto de los costos logísticos en la competitividad de las cadenas de suministro agroexportadoras peruanas en el contexto del TLC Perú-EE.UU. al 2015" publicado en la Revista Enfoque de la Universidad de Lima  
Revista Enfoque - Articulo Costos Logisticos en SCM Agroexportadoras en el Perú

viernes, 12 de enero de 2018

Algunas notas y links sobre Blockchain y Bitcoin...

Link del White Paper de Satoshi Nakamoto (Seudónimo) que dio origen al Blockchain que diserta sobre un sistema de pagos persona a persona sin intervención de una institución financiera:  https://bitcoin.org/bitcoin.pdf


Criptomonedas Trade - Valor de mercado:   https://coinmarketcap.com/

Código Bitcoin: Bitcoin Core:  https://bitcoin.org/es/download.

Listas de Casas de Cambios y Monederos Digitales por país: https://bitcoin.org/en/exchanges

Link para ver los bloques resueltos y las transacciones en línea

Mapa de nodos Bitcoin en el mundo:  https://bitnodes.earn.com/