Inicio Criptomonedas ¿Quien dijo que? Con Houda Ferradi

¿Quien dijo que? Con Houda Ferradi

¿Quién es Houda Ferradi?

Actualmente trabajo como Director Científico en Dfns. En octubre de 2016, obtuve un doctorado en Criptografía y Seguridad de la Información de la École Normale Supérieure (ENS) en París. Posteriormente, pasé 3 años como investigador postdoctoral en los laboratorios de plataforma segura NTT en Tokio. Luego, 2 años como investigador en el departamento de informática de la Universidad Politécnica de Hong Kong (PolyU). Mi investigación actual se centra en la criptografía post-cuántica, la seguridad y la privacidad en el intercambio de big data y la tecnología blockchain.

¿Podría definir blockchain simplemente para nuestros lectores?

Houda cree que la tecnología blockchain ha recibido mucha atención de la industria y el mundo académico en los últimos años porque le permite almacenar datos verificables de manera confiable y sin la necesidad de utilizar un tercero confiable.

En general, una cadena de bloques es una lista creciente de bloques vinculados por funciones criptográficas y en la que cada bloque contiene un conjunto de transacciones. La estructura de la cadena de bloques se mantiene mediante un conjunto de nodos conectados de igual a igual (P2P): esto es lo que constituye la red de la cadena de bloques.

Las principales propiedades de la cadena de bloques son las siguientes:

Descentralización: el blockchain se mantiene mediante una red P2P donde todos los nodos son iguales y no existe una autoridad central que los gobierne o controle.

Transparencia: los bloques y transacciones son visibles para todos los nodos de la red e incluso son públicos para todos.

Inmutabilidad: los datos no se pueden cambiar una vez almacenados en la cadena de bloques, ya que los bloques se generan uno por uno y se vinculan de forma segura mediante funciones criptográficas.

La cadena de bloques se utiliza en muchas industrias. Cada vez se habla más de su aplicación con big data. ¿Qué es exactamente Big Data?

Houda me explica que el término «big data» se ha utilizado desde finales de la década de 1990, pero se ha vuelto rápidamente popular desde su aparición en ACM Communications en 2009. [Hyesung Kim, Jihong Park, Mehdi Bennis et Seong-Lyun Kim. 2019. Blockchain on-device federated learning. IEEE Communications Letters 24, 6 (2019), 1279-1283].

El big data, de hecho, ya estaba definido en 2001. En ese momento, el big data se definía generalmente por volumen, es decir, se refería a un gran volumen de datos cuyo tamaño excedía la capacidad de captura de las herramientas de software. , gestionar y procesar datos en un plazo de tiempo razonable.

Posteriormente se agregaron varias otras «Vs» para describir el big data, entre las que encontramos variedad y velocidad. La variedad de big data se refiere a diferentes tipos o modos de datos, mientras que la velocidad de datos es la velocidad a la que se generan y procesan los datos.

Así nació el modelo «3Vs» para describir big data. Este ha sido durante mucho tiempo el modelo adoptado por Gartner y muchas otras empresas como IBM y Microsoft.

¿Por qué el big data es importante para las empresas?

Los macrodatos benefician los descubrimientos científicos, el conocimiento y los experimentos, como la predicción de enfermedades y el tratamiento terapéutico.

En los últimos años, el análisis de datos médicos basado en el aprendizaje automático ha atraído la atención de los gobiernos, la industria y el mundo académico. Los enfoques de aprendizaje automático requieren una gran cantidad de datos, que difícilmente puede ser proporcionada por una sola organización médica.

Por lo tanto, la agregación de ensayos clínicos es importante, pero se puede lograr compartiendo macrodatos.

¿Cómo se usa blockchain en big data?

Las personas o entidades que comparten datos o metadatos los publican utilizando la interfaz proporcionada por los nodos de blockchain. Al mismo tiempo, la red almacena los datos sin procesar localmente y los administra en una «zona confiable», como en entornos de ejecución confiables.

Aquellos que se benefician de los datos compartidos utilizan big data de «datos compartidos» y generan registros de compartición. Las operaciones de publicación y uso de los datos se almacenan en dos cadenas de bloques, la cadena de metadatos y la cadena de datos compartidos, respectivamente.

Houda luego me explica que los nodos de la cadena de bloques mantienen las dos cadenas de bloques y permiten la interacción entre las dos. La cadena de metadatos y la cadena de datos compartidos utilizan la misma infraestructura de cadena de bloques de múltiples capas, es decir, la capa de contrato inteligente, la capa de consenso, la capa de almacenamiento y la capa de red.

La seguridad de los datos, especialmente la información personal, es un tema importante en la explotación de big data. ¿Puede blockchain permitir una mejor seguridad de big data?

Para Houda, la cadena de bloques puede resolver problemas de privacidad y autenticidad en el intercambio de big data gracias a sus características distintivas de transparencia, inmutabilidad y descentralización.

Por un lado, los datos masivos serán alojados por los propios propietarios de los datos en lugar de un tercero de confianza, lo que evitará cualquier violación de la privacidad. Por otro lado, los datos son verificados y confirmados por los nodos de la red blockchain, lo que garantiza la autenticidad de los datos.

Con este fin, blockchain puede verse como una solución prometedora para la explotación y el intercambio de big data.

¿Quien dijo que? Con Houda Ferradi – La última palabra

Finalmente, le pregunto a Houda cuáles son las perspectivas futuras de blockchain en este sector.

Hoy en día, la potencia informática está mejorando rápidamente, lo que realmente ha promovido el aprendizaje automático y la inteligencia artificial en áreas de aplicación, como la visión por computadora, el procesamiento del lenguaje natural, la conducción autónoma, etc.

Además, los investigadores desarrollaron algoritmos avanzados de aprendizaje automático, como el aprendizaje profundo y el aprendizaje por refuerzo. Sin embargo, el éxito de estos algoritmos de aprendizaje automático depende en gran medida de grandes cantidades de datos muy variables, que se han utilizado para entrenar los modelos de alta precisión.

Tomemos el ejemplo del sistema de seguimiento de personas de Facebook que utiliza 350 millones de imágenes. Estos datos son ricos, pero a menudo son sensibles a la privacidad, en grandes cantidades o en ambos. Y debido a que los datos contienen información privada, los propietarios de los datos no están dispuestos a compartirlos, lo que dificulta la obtención de una gran cantidad de datos de alta calidad y de amplio alcance para lograr modelos de alta precisión. .

Si ingresa al campo de la atención médica inteligente, debe utilizar análisis de patología de diferentes hospitales para formar modelos de alta precisión. Pero los análisis patológicos contienen información privada sobre los pacientes y, por razones de confidencialidad e interés del paciente, es difícil compartir escaneos y análisis entre hospitales, por ejemplo, pero los escaneos y análisis de un solo hospital no son suficientes para formar un modelo de precisión.

Si pensamos en las exploraciones y los análisis como datos, cada hospital puede considerarse como una isla de datos valiosos que no guardan relación con los demás. Si el problema de las islas de datos no se puede resolver de forma eficaz, el desarrollo del aprendizaje automático se verá limitado por la falta de datos.

Houda me explica que para solucionar este problema, McMahan et al. propuesto en 2017 aprendizaje federado (FL o aprendizaje federado) que deja los datos de aprendizaje distribuidos en dispositivos durante el aprendizaje a través de un modelo compartido agregando actualizaciones calculadas localmente.

A través de este tipo de aprendizaje [FL], la tarea de aprendizaje se resuelve mediante una federación flexible y abierta de dispositivos participantes (clientes) coordinados por un servidor central.

Una ventaja importante de este enfoque es el desacoplamiento del entrenamiento del modelo de la necesidad de acceso directo a los datos de entrenamiento sin procesar y la ausencia de almacenamiento de datos centralizado, lo que ayuda a proteger la información confidencial contenida en los datos sin procesar.

En los últimos años, muchos investigadores han utilizado blockchain para mejorar el aprendizaje federado, como BlockFL propuesto por Kim et al. [Hyesung Kim, Jihong Park, Mehdi Bennis et Seong-Lyun Kim. 2019. Blockchained on-device federated learning. IEEE Communications Letters 24, 6 (2019), 1279-1283].

¡Gracias a Houda Ferradi por participar en esta edición y por contarnos sobre las oportunidades del blockchain en el sector del big data!

Marc Gomez
Vine a por tabaco y ya me quedé aquí. Cuando no estoy en el sótano de Tecnopasion suelo pasear por las calles de Barcelona.
RELATED ARTICLES