¡Buenas! Yo soy Beñat Galdós,
soy fundador de Galde, una iniciativa empresarial cuyo
objetivo es desarrollar software:
Desarrollo web,
de aplicaciones móviles,
o consultoría basada en el análisis de datos.
Y este vídeo
está generado porque
esta ponencia la hice en la Euskal Encounter,
el 25 de julio, pero
hubo problemas del directo que hacían
que la calidad no fuera la óptima. Entonces, hubo gente que
me contactó por redes sociales y que me pidió que
repitiera la presentación, porque había detalles
a los que querían sacar capturas, obtenerlos, etc.
Así que entre mi charla,
además de las informaciones de la descripción,
 
podréis obtener la información que queráis,
así que espero que os sea de utilidad.
¿Esta charla en qué se enmarca?
¿Cuál es el contexto?
La EE28 - Revival Beyond AI
tenía como temática principal la inteligencia artificial,
y esta fue una EE un poco particular
debido a que fue online (por COVID-19).
Además de mi faceta como fundador de Galde,
estoy promoviendo la iniciativa
AI Saturdays en Euskadi.
Trayéndola tanto a Bilbao como a Donostia.
Esta charla va a ser un contexto
para entender algunas aplicaciones
de la Data Science, siendo esta
el proceso de análisis de datos
y utilización de diferentes algoritmos y técnicas para
extraer conocimiento de los datos.
Sin embargo, esos procesos
estarán aplicados a cosas que no son productivas.
Es decir, nosotros en la EE pudimos
ver diferentes ponencias muy interesantes
de ejemplos de aplicaciones prácticas
que eran productivas (p.ej. encontrar melanomas).
Sin embargo, esto dista de esa perspectiva.
De ahí viene ese
título de "Data Science inesperada".
Sin más dilación, empiezo.
¡Este era yo!
Esta charla la oriento tanto a gente que no tiene experiencia como a la que tiene experiencia,
así que como solo hay 2 conjuntos, cualquiera que oiga esta presentación
puede llegar a entenderla.
¿Por qué está de moda esto de la IA?
Hace unos cuantos años,
las técnicas que actualmente se usan,
o las que han sido las bases
para las que se usan dentro del campo de la IA
no son nuevas. En 1958 ya se planteó
el Perceptrón como concepto.
Sin embargo, en la última década,
más bien a inicios de los 2000, surgieron
2 tendencias fundamentales que
han hecho que la IA, que al final
no deja de ser un conjunto
de herramientas estadísticas
equipadas con conocimientos informáticos y matemáticos,
pudiera tener más efecto.
Aquí tenemos 2 conceptos esenciales:
1) El Big Data ("Datos Grandes"), o tener muchos datos.
Hace unos cuantos años era impensable
que pudiéramos tener tantos sensores, dispositivos, etc.
para recopilar diferentes datos.
Entonces, nos falta una fuente de datos fiable
o una gran cantidad de datos para hacer cosas.
Y por otra parte, tenemos la computación distribuida o la nube.
Si queríamos hacer muchas operaciones,
necesitábamos tener las infraestructuras
en nuestras propias instalaciones (empresa, entorno, ...).
Mientras que ahora,
podemos alquilar máquinas, ya sea con AWS
o con otros proveedores y que
nos favorezcan máquinas
para hacer cálculos, entrenar modelos, etc.
¿Entonces qué sucede? Cuando esas tendencias no existían,
la inversión de las empresas
en este campo era pírrica.
Pero, hoy en día, al verse una posibilidad real
y que efectivamente hay
muchos beneficios que se pueden obtener,
las empresas están apostando fuertemente por ello.
Como "aplicaciones serias", podemos hablar de
coches autónomos, que cuando
está en California, y vuelve a su casa
por la autopista, y se da cuenta
de que por la izquierda le adelanta
un coche de NVIDIA con un LIDAR,
sin conductor, le da que pensar.
Pero sobre todo, cuando a su derecha le adelanta un camión sin conductor,
también le da que pensar.
Por otra parte tenemos las conocidas "Fake News",
que con algunos generadores de textos
como el Transformer, se han conseguido
hacer de manera bastante veraz.
Este es un gran problema que estamos viviendo
y enfrentando a día de hoy.
Posteriormente tenemos la detección y reconocimiento de objetos.
Este es un problema bastante interesante,
porque por ejemplo para plantas productivas,
no es lo mismo agarrar una botella de leche que una caja de huevos.
Esto tiene una infinidad de aplicaciones.
A su vez, tenemos lo que es la traducción simultánea,
que esto al final facilita muchísimo la comunicación entre personas,
ya sean de diferentes culturas, etc. Pero,
los idiomas que usan estas personas
contienen ciertos detalles intrínsecos
que son sesgos que a veces cuesta eliminar.
Por lo tanto, en estos casos de traducción, suele haber
errores de sesgos en los que,
por ejemplo, a un enfermero, se le asigne
siempre el género femenino,
porque la mayoría de las personas que actúa como enfermeros son mujeres.
Pero, más allá de eso, ¿podemos pensar
en aplicaciones que sean curiosas/graciosas/diferentes?
Es decir, que no sean "productivas"
o que no busquen esa productividad.
Pero aún y con todo utilizando medios
que podrían ser perfectamente
utilizables para un análisis serio de un problema.
Para ello empiezo con el primer ejemplo: "El Odio".
El Odio como concepto es bastante humano.
Al final, nosotros como humanos, nos gusta ser queridos.
En nuestra interacción humano con humano,
nos gusta fijarnos si
alguien nos quiere, nos aprecia, nos trata bien, etc.
Pero en otras veces nos entra la "vena cotilla".
Entonces, ¿qué sucede? Que podemos
estar viendo acciones por ejemplo
que alguien hace en contra de nosotros;
el qué dirán, qué pensarán de nosotros, etc.
Como sentimiento
puede ser un sentimiento bastante curioso e interesante de analizar el del odio.
Y esto... ¿se puede analizar?
En este campo de la ciencia de datos,
lo que se busca es analizar datos.
Entonces, si tenemos un entorno,
(por ejemplo un entorno comunicativo)
en el cual tenemos los textos,
las grabaciones, contenidos, etc.
Podemos hacer análisis de ello y obtener patrones,
así que por poder se puede.
¿Y esto cómo se mide? ¿Cómo se ha hecho?
Con el ejemplo del Odiómetro.
El Odiómetro es una herramienta que creó el usuario @ojoven
de Twitter (también conocido como Mikel).
Y esta herramienta surge
hace unos 3 años,
y de hecho está explicado en el Twitter de @ojoven,
así que podéis mirarlo ahí si queréis.
La primera visualización que uno se encuentra en el Odiómetro es esta.
Aparece una página web
(https://odiometro.es)
y aquí encontramos el número de tweets de odio
por minuto que está habiendo en ese momento,
así como una línea de tendencia,
para ver cómo ha evolucionado el nivel.
Y a su vez, un tweet destacado
que va cambiando.
¿Esto qué implica? ¿Cuál es el objetivo de esta herramienta?
El Odiómetro lo que pretende es
analizar el nivel de odio
de Twitter. ¿Por qué?
Porque es un ejemplo curioso
y hay un medio escrito
y en ese medio escrito se pueden analizar los contenidos
y a analizar datos.
A partir de ahí, ¿qué tenemos?
Además de ese dato momentáneo, el Odiómetro ofrece
diferentes datos momentáneos.
Por ejemplo, podemos ver el usuario que más odio está generando,
así como el usuario que más odio está recibiendo.
Del mismo modo, podemos tener un histórico del odio
en el que podemos mostrar
el usuario más odiador y más odiado,
de las últimas 6 horas, días, ...
También podemos observar este histórico del odio
de una manera un poco distinta, a modo de gráfico.
Y en este gráfico aparecen dos líneas. Primero, la línea gris punteada,
que es una línea de tendencia; es decir,
esto muestra el nivel de odio que se podría esperar
en una franja de horas determinada para un día determinado,
en base a un histórico previo.
Pero, luego está el dato de la línea roja.
Esta línea roja muestra el nivel de odio real
que ha habido en esos intervalos temporales.
Y de hecho, el chiste es (el dato está extraído del fin de semana anterior a la charla de la EE),
que no sé qué sucedió aquel fin de semana,
alguna masacre masiva o algo, pero hubo
unos niveles de odio brutales a las horas del día
en las que hay más gente conectada en Twitter,
que suele ser hacia la noche.
Posiblemente hubo alguna masacre masiva o algún hecho
odioso del que no me enteré
y que se reflejó en este gráfico.
Lo cual fue bastante significativo.
Además, podemos verlo también en formato tabla,
de tal manera que podemos ver
en una franja horaria, en un día concreto,
el usuario más odiador y el más odiado, de modo que
si alguien quiere tener ese "honor", pues puede tenerlo.
Ahora, la cuestión es, ¿cómo se identifica qué es el odio?
Esa puede ser una buena pregunta. Pues aquí se ha hecho lo siguiente:
Twitter como plataforma (así como otras plataformas),
ofrece lo que se llama una "API" (Application Programming Interface).
¿Esto qué es? Es, dicho de una manera sencilla,
un cable al exterior.
En esta plataforma, Twitter
ofrece ese cable al exterior en el que
aporta la información de Twitter.
Entonces, Mikel lo que hizo fue generar
un bot, un programa que estaba funcionando 24/7,
y lo que hizo fue conectarlo a esta API.
De tal manera que recibe información de Twitter, y al recibir
esta información de Twitter, la va contrastando
con esta lista de palabras que tenéis. Esta lista es un "corpus"
(un listado de textos
o palabras que estén relacionadas con lo que a nosotros nos interese reflejar).
No voy a leerlo porque ya lo veis,
y no son palabras preciosas,
pero lo que se va haciendo con este bot
es contrastar si los tweets
de Twitter se muestran estos contenidos.
Entonces, si un tweet tiene una o más de una de estas palabras,
pues efectivamente será más odioso, e irá ganando "puntos de odio".
De esta manera es como se ha construido el Odiómetro,
y esto no deja de ser lo que se conoce como "análisis de sentimiento",
que es una técnica bastante usada dentro del área del análisis de datos.
A su vez, cabe destacar que
esto se podría usar para un fin productivo. Si nosotros
no utilizáramos este corpus de palabras ofensivas
y en vez de eso usáramos palabras
que nos pueden interesar para mostrar alguna tendencia que aún no es Trending Topic,
pues podríamos aprender esas cosas
y llegar a conclusiones interesantes.
Cabe destacar que
el Odiómetro como herramienta acepta
Pull Requests en el repo de
GitHub (mejoras, etc.).
Así que cualquier interesado puede
ir a la descripción del vídeo
y aportar su granito de arena (https://github.com/ojoven/odiometro).
Ahora vamos a pegar un salto a otro concepto:
2] Los Memes.
¿Por qué los Memes? ¿Por qué son interesantes
como idea, como herramienta?
Quien no esté de acuerdo conmigo
en esta afirmación tendrá un pequeño conflicto.
Creo que estamos de acuerdo en que
el meme como idea
ha revolucionado la cultura en este siglo.
¿Por qué? Porque ha conseguido que
personas de diferentes entornos y culturas
aprendieran a usar,
a empatizar con
una imagen y unos textos;
los cuales normalmente están en inglés.
¿Cuál es la situación?
En un meme, tenemos dos componentes esenciales:
la imagen y el texto.
La imagen suele ser una imagen fija,
una imagen que es reconocible, y nosotros cuando la vemos,
asociamos esa imagen a un contexto,
a un sentimiento, a una situación.
Y luego tenemos los textos que
si están mejor o peor conectados con esa imagen, nos harán más o menos gracia;
o incluso empatizaremos con ellos.
¿Cuál es el punto?
Uno puede decir: "Esta tarea es bastante 'humana', al final
tienes que encontrar el momento exacto
para tener una imagen de ello, y después
poner unos comentarios asociados."
¿Pero qué sucede? ¿Se puede automatizar esto?
De hecho sí; y está hecho.
El "Meme Generator"
que está en el enlace de Image Flip (https://imgflip.com/ai-meme),
es una herramienta bastante curiosa
en la que, mediante una red neuronal,
se generan los textos de las imágenes.
Aquí he usado una serie de memes, y algunos están autogenerados.
Se pueden llegar a imágenes bastante divertidas las cuales
pueden tener bastante sentido, aunque tú no las hayas pensado.
¿Por qué el concepto de meme?
Porque es una herramienta simple, rápida, directa y memorable.
Así que wow, es una herramienta bastante curiosa para
comunicar, y para que todas las personas que reciban
ese estímulo del meme,
que puedan empatizar.
Ahora, como es una herramienta tan potente,
pues hay mucha gente dedicada al marketing
y demás, que cuando tienen tiempo libre y pueden permitirse el lujo de hacerlo,
pueden hacer una sesión de creatividad, y decir:
"¡Vamos a crear memes!".
Cosa que a veces funciona, y se viraliza relativamente fácil.
En ese momento en el que alguien genera un meme, dice:
"¡Ya tengo el meme que nos salvará a todos!"
Pero luego la pregunta es: ¿Si hay una herramienta
que nos lo puede autogenerar, no hace falta
esa creatividad, no? Pues es cierto.
Estamos en un punto en el que, si yo por ejemplo tuviera
una creatividad concreta
(por ejemplo: "¡Hoy es viernes!"),
lo pongo y ya tengo el meme generado. Pero si tengo que estar
en esa sesión de creatividad, quizá pueda ahorrarme mucho tiempo
simplemente dejando que la IA autogenere textos
y a partir de ahí voy tomando ideas. Al final, la creatividad funciona así,
en base a estímulos externos.
Algún artista o persona de comunicación de marketing,
que quizá no conozca demasiado el campo de la IA, dirá:
"¿Y esto, cómo puñetas se ha generado?"
Lo que os decía antes;
todo meme tiene dos componentes:
una imagen, que es con la que empatizamos,
y los captions/textos, que siempre tienen un formato bastante concreto.
La imagen del fondo es constante,
de hecho en el Meme Generator se toman
48 imágenes como constantes, y se hacen combinaciones
a partir de textos con estas imágenes.
Y luego la IA es la que genera estos textos.
Siguiente cuestión; pongámonos en modo "técnico".
Si quisiéramos crear una herramienta para
generar textos de memes,
podríamos decir: "¿qué tipo de
red neuronal/arquitectura podemos usar?"
Y es una buena pregunta porque pueden salir
diferentes herramientas; por ejemplo,
las RNNs con LSTMs, bastante utilizadas en el ámbito de reconocimiento del habla,
generación de textos, etc.
Por otra parte tenemos las GANs, que se han usado bastante
por ejemplo en el caso del FaceApp,
esta aplicación en la que todo el mundo se ha sacado fotos y las ha modificado,
pero que luego ha generado una base de datos gigantesca en la que
nadie tiene control sobre ella y que nos pueden hackear. ( ;-] ).
Y luego hay otras arquitecturas que
normalmente no se usan tanto para este contexto,
pero que pueden ser
de interés, como por ejemplo las redes convolucionales,
las cuales normalmente se utilizan para tratamiento de imágenes.
Y la pregunta es: "¿Qué se ha usado aquí?"
Pues efectivamente, se han usado redes convolucionales (CNN);
bueno, una CNN, concretamente.
No es esta la imagen; este es un esquema prototípico,
en el que al final lo que se hace normalmente es:
se toma una imagen, se toman los píxeles de esa imagen,
y sobre cada píxel se aplica una operación de convolución.
Pero en este caso, la CNN se ha utilizado de una manera distinta.
¿Por qué?
Cada red neuronal es una arquitectura que tiene un montón de "neuronas"
y cada neurona es una función matemática, que hace una operación.
Y después cada neurona tiene un peso, unos valores concretos o parámetros
que hace que vaya regulándose
el efecto de esta red neuronal.
La cuestión es que hay redes neuronales que por su propia arquitectura,
por cómo son, cuesta más entrenarlas.
¿Por qué?
Por poner un ejemplo tonto, porque no es lo mismo hacer una suma
que hacer una integral (que es una suma de infinitésimos).
¿Cuál es el punto?
El autor del Meme Generator pensó:
"Quiero entrenar algo
con un corpus de textos y una cantidad de imágenes más o menos grande,
pero no quiero tirarme 80 años entrenando el modelo."
Entonces, para ello decidió por optar por una CNN,
y esta CNN, ¿qué es lo que hace?
Recordemos, ¿qué es lo que nos interesa?
Nos interesa generar textos - vuelvo atrás.
Si os dais cuenta, por ejemplo en el texto del meme de la derecha,
hay una falta de ortografía.
Y esas faltas de ortografía son importantes
de cara a los memes, dado que a veces son las que le dan la gracia.
Entonces, ante este problema de procesamiento de lenguaje natural (NLP)
podríamos crear un corpus de palabras
en el caso del ejemplo de Twitter,
podemos crear un conjunto de palabras
que tuviera (o no) faltas, y demás, pero sería muy extensivo.
Lo que se propone aquí es lo siguiente:
Cada palabra, en vez de construirse con otras palabras
(es decir, que con la palabra 'coche' genere 'verde', por ejemplo),
se construye letra a letra, haciéndolo como: C O C H E.
Para ello, ¿qué se hace?
Por ejemplo, tenemos una C.
Y preguntamos: ¿Cuál sería la siguiente letra que podría convenir mejor al texto?
Para eso, se genera un vector de probabilidades
con cada una de las siguientes letras posibles
y se le asigna una probabilidad. La red neuronal
ha aprendido a asignar probablidades
a estas letras.
De tal manera que
posteriormente se le aplica un filtro manual a partir de una probabilidad media-alta (10%),
y se elige esa posible letra.
Entonces tenemos: "Una C; ¿cuál puede ser la siguiente?"
"Una A, una B, una C, ...; pues una C no tiene sentido,
pero una O por ejemplo sí."
De ese modo tenemos "C O". Y luego añadimos otra C,
una H, una E, y así sucesivamente.
Y así es como va generando esta herramienta los textos,
que es una manera un poco curiosa de hacerlo.
De hecho, tenéis la fuente en la descripción del vídeo (Meme Generator - Towards Data Science).
¿Y esto al final a qué nos lleva? Hay memes
que no tienen demasiado sentido, pero luego hay otros memes
que son bastante interesantes, y menciono el de la derecha.
Se plantea un dilema bastante humano,
en el que yo siendo un hombre, digo:
¿quiero ser un novio de alguien o quiero ser un amigo con derechos?
Al final es un dilema bastante humano,
y nos puede generar dudas.
Y que una red neuronal haya sido capaz de reflejar este hecho, tiene mérito.
Como último ejemplo que tenemos. En la cultura,
además de los memes que son un invento más reciente,
desde hace miles de años siempre nos han acompañado las canciones.
¿Las canciones por qué son interesantes?
Porque las canciones son una manera de mostrar:
costumbres, estilos, ...
Al final, una canción tiene sus estilos culturales,
y se va cantando, se va tocando con diferentes instrumentos,
en base a lo que había en aquel momento.
Hoy en día hay mucha mayor variedad de instrumentos
que había en el siglo X.
Entonces, la música de un momento o de otro es distinta.
Y a su vez, hay que considerar las temáticas.
Actualmente tenemos unas temáticas concretas,
pero las canciones actuales de amor, y las de hace 4.000 años
pues pueden hablar de lo mismo; con una jerga distinta,
pero pueden hacer referencia a los mismos sentimientos.
Entonces, es algo que culturalmente nos ha acompañado desde siempre.
¿Pero qué ocurre? A nosotros los humanos
nos gusta jugar con las canciones. Por ejemplo,
voy a tomar mi ejemplo. A mí me gusta Adele,
y hay alguna canción en la que tiene un agudo tremendo,
y me gustaría imitarlo. ¿Pero qué pasa?
Que yo no llego a ese rango vocal.
¿Qué podría hacer?
Podría remixear la canción; podría modificarla
por así decirlo (en el caso de que supiera de música,
cosa que no sé, así que no puedo hacerlo, pero bueno - imaginemos que sí).
Podría hacerlo para que
yo pudiera cantar eso, y pues pudiera sentirme como un pro
cantando una canción de Adele.
Teniendo en cuenta este concepto
que es el que vamos a hablar ahora, quiero que escuchéis
la siguiente canción, que va a ser una melodía
para tomarla como referencia.
[SE ESCUCHA LA CANCIÓN "BABY SHARK" DE FONDO"]
Habiendo escuchado eso, podemos tomarla como referencia, que por cierto
es el Baby Shark,
que ha sido archiconocida y se ha hecho viral en este último año.
Introduzco Jukebox.
¿Jukebox qué es? Es una herramienta
generada por la startup californiana OpenAI.
Esta startup está respaldada por
el emprendedor Elon Musk
y por Microsoft.
OpenAI ha generado muchas herramientas que
han generado bastante revuelo, así como el GPT-2 o el GPT-3,
más recientemente, y os dejo en la descripción un vídeo explicativo (GPT-3 - Two Minute Papers).
Y otro proyecto que han trabajado ha sido Jukebox.
Jukebox, que en inglés significa "caja de música",
¿qué es lo que busca hacer?
Lo que busca es, mediante un procedimiento un poco complejo,
busca hacer lo que se conoce
como una "transferencia de estilo",  pero en este caso
de estilos de música.
Nosotros hemos estado hablando de diferentes estilos,
como os comentaba:
la "A capella" del siglo XIV,
que puede llegar a ser similar a la actual, añadiendo tonalidades o detalles de las canciones pop actuales, etc.
Si queréis explorar, podéis buscar en el enlace de la descripción (OpenAI - JukeBox Blog),
y aparece el paper resumen, además del código abierto.
¿En qué se basa esto? Primero se hace un "clustering".
Un clustering es una agrupación de diferentes componentes, elementos.
En este clustering se muestra un clustering de diferentes estilos de música y diferentes
autores que se han tomado como referencia.
Se puede ver que por ejemplo, en la parte central,
el Pop ha recibido muchas influencias
de diferentes estilos musicales.
Mientras que si pegamos el salto hacia la derecha,
tenemos la música clásica que es la que tiene un estilo más característico.
Teniendo en cuenta esta idea de los estilos
y su clasificación,
¿qué propone Jukebox? Propone una arquitectura
en dos partes. Es algo compleja,
pero por explicarla de manera sencilla, [INCISO: REFERENCIAS A LOS PAPERS EN DESCRIPCIÓN].
Volviendo al tema.
En la parte primera, tenemos el modelo VQ-VAE.
¿Qué hace esto? Esto trata el sonido.
Al tratar el sonido, más que jugar con las frecuencias (alta, media, baja),
lo que se hace es codificar.
Primero, se hacen tres niveles de codificación:
una más sencilla, una medianamente compleja y otra más extensiva.
Sobre estas codificaciones, se trabaja
con esta parte segunda que son los Transformers.
Los Transformers, como concepto, surgen
en un paper publicado por Google Brain
en el año 2017, y es una arquitectura
que aunque tenga la pega de que
utiliza más datos para obtener resultados,
es una herramienta muy eficaz
para NLP. ¿Por qué?
Porque explicado de manera muy rápida,
herramientas anteriores para el NLP solo permitían
que una frase se leyera de izquierda a derecha
o se tratara de izquierda a derecha,
y un Transformer permite que
se pueda tratar desde múltiples puntos.
Lo que os digo, esto es una simplificación bastante burda,
pero al final, la idea de fondo es esa.
A partir de ahí,
estos Transformers se utilizan
para el tratamiento de las "Lyrics" o letras,
y esto se mete a los vectores codificados.
Posteriormente, volviendo al modelo VQ-VAE, se decodifican
y se obtienen diferentes ondas de sonido.
¿Con esto qué hemos hecho?
Hemos hecho una transferencia de estilo,
de un estilo de un tipo a un estilo de otro tipo,
teniendo en cuenta la base original de las letras que teníamos,
pero adaptadas a la musicalidad para que
se puedan seguir oyendo.
Recordando la melodía anterior, os dejo el ejemplo de cómo ha quedado.
[SE ESCUCHA BABY SHARK MODIFICADO AL ESTILO JAZZ, POR JUKEBOX].
Como habéis podido comprobar, el estilo era
bastante distinto al final. Aunque se tratara de la misma canción,
es diferente; se escucha diferente.
Tiene un toque más "jazzy" del siglo XX.
Había otras aplicaciones curiosas
que podrían haber sido interesantes mencionar. Por ejemplo, el Bertsobot,
generado por una doctoranda de la UPV hace varios años.
A su vez, el Bot or Not, InspiroBot, etc.
Pero hay algunas de estas herramientas que
(quería hacer la mención)
que no son IA. ¿Por qué? Porque hoy en día llamamos IA a cualquier cosa.
Pero eso no es cierto.
La IA, tal y como se está entendiendo hoy en día,
el objetivo es que tenga una serie de herramientas,
como las que he mostrado,
que están basadas en redes neuronales, etc. Es decir, que tienen un procesamiento más o menos serio.
Mientras que por ejemplo en el Bot or Not o el InspiroBot
(En el caso del BertsoBot esto se trabaja bien);
pero en los casos del Bot or Not o el InspiroBot,
se trata de un conjunto de textos que ya se tienen anteriormente
y simplemente se aleatorizan. Con lo cual,
no se trata de IA. Aquí a veces hay que andar con cuidado
con la gente con lo que vende como IA y que no lo es.
Hay una gran nebulosa en este tema.
Si esto que he comentado te ha llamado la atención
como persona que no tienes experiencia en este campo, y dices:
"Oye, pues me ha llamado la atención". Te digo:
"Vale, ¿quieres aprender a crear proyectos como esos
(bueno, quizá algo más sencillos porque hay algunos que son algo complejos),
pero que tengan quizá una perspectiva más productiva?"
Introduzco AI Saturdays en Euskadi.
La comunidad AI Saturdays es una comunidad que
está en más de 30 ciudades;
si queréis podéis seguir esos hashtags en redes sociales
y enteraros de las publicaciones hechas hasta el momento.
Está en más de 30 ciudades, y es una comunidad global.
Y esta comunidad global, ¿qué tiene?
Pues tiene gente que está interesada
en el ámbito de la IA. Puede ser gente que tenga experiencia en este ámbito
y que haya entrado a la comunidad,
o gente que no sepa y que quiera introducirse,
que quiera aprender.
Esta comunidad surge hace 3 años,
surge en Barcelona,
que de ahí se extendió a Madrid,
y posteriormente se ha ido extendiendo a diferentes partes del mundo.
¿Y qué es AI Saturdays?
Aparte de esta comunidad de personas del ámbito de la IA,
ofrece una academia,
un proceso de aprendizaje.
Este proceso de aprendizaje es un proceso teórico-práctico.
Hay una serie de sesiones teóricas
(unas 6-7 sesiones teóricas) en las que
se dan unas ciertas bases de diferentes conceptos.
Y luego hay otras 6-7 sesiones prácticas más o menos,
en las que se trabajan estos conceptos
utilizando para ello como excusa un proyecto de impacto social.
Se pueden hacer grupos con diferentes personas
para hacer proyectos de impacto social.
Si esto te ha llamado la atención,
te animo a que mires en las páginas de
donostia.saturdays.ai & bilbao.saturdays.ai
Ahí puedes ver información de pre-requisitos, beneficios obtenidos, etc.
Y si te convence, yo te animo a que te apuntes.
Es un pequeño formulario Google Forms,
ahí rellenas cierta información,
haces clic en la Política de Privacidad
(no te robaremos los datos, no te preocupes).
Acaba el 6 de septiembre esta convocatoria,
hacia el 20 de septiembre haremos un pequeño proceso de selección
y elegimos a las personas que quieran entrar,
y finalmente, empezaríamos a finales de septiembre, en Donosti o en Bilbao.
La ubicación seguramente en Donosti será
en el Eureka! Zientzia Museoa (Kutxaespacio),
y en Bilbao en las oficinas de Camp Tecnológico.
A su vez, destacar que
si eres una persona que tiene experiencia en este ámbito,
podrías decirme:
"Ya, pero yo...
yo sé de estas cosas.
No me vas a enseñar nada."
Y yo posiblemente te diré: "Es cierto".
¿Pero qué ocurre?
No siempre creo que eso sea cierto, dado que al hablar
con las personas y escuchar sus experiencias uno aprende.
Pero, más allá de eso,
yo como fundador de Galde
puedo decir que esta iniciativa empresarial surgió inicialmente
como unos proyectos de fin de carrera
en los que yo creé una herramienta basada en Deep Learning.
Con esta herramienta de Deep Learning
tuve ciertos percances
a la hora de crearla y demás,
y el hecho de testear prototipos es una cosa que me hubiera venido muy bien.
Si eres una persona que sabe de IA,
que tiene alguna idea y que quiere testearla,
para ese testeo, ¿qué cosas necesitas?
Necesitas: Dinero, promoción
y quizá reconocimiento;
ver que efectivamente tiene sentido lo que estás haciendo.
Te menciono que AI Saturdays
como comunidad, ha generado
un acuerdo con AWS, de tal manera que
AWS facilita a cada alumno
un crédito de un equivalente de 1000$.
Actualmente, el coste de AI Saturdays en Euskadi
es de 99€; ya sea en Bilbao o en Donostia.
¿Cuál sería tu beneficio
viéndolo de una perspectiva meramente objetiva?
Sería:
(1000 /1,14 - 99) = 780€ + Comunidad + Promoción de Proyecto
No lo he mencionado antes, pero al final de AI Saturdays, existe un Demo Day,
un día de presentación, y en este día de presentación
uno presenta los proyectos que ha ido haciendo con sus compañeros.
Entonces, esa es una manera de ganar visibilidad, tanto
de cara a tu proyecto, si quieres promocionarlo y ser un fundador,
o si eres una persona que quiere buscar trabajo en este ámbito, para que otras
empresas y otra gente te vea, dado que es un evento público.
Si todo esto te llama y te parece interesante,
lo mismo que he dicho antes,
visita las páginas donostia.saturdays.ai & bilbao.saturdays.ai,
y apúntate.
Y esto es todo.
Simplemente quería agradecer una vez más
a la gente de EE
por confiar tanto en mi persona, como en Camp Tecnológico,
como en Global Shapers Bilbao, que somos los promotores
que estamos llevando AI Saturdays aquí.
Y nada, si tenéis cualquier duda,
podéis escribirme a mi email corporativo (bgaldos@galde.app),
o podéis mirar en donostia.saturdays.ai & bilbao.saturdays.ai,
porque en la parte baja tenéis diferentes correos.
Recomendación: Si tenéis dudas y en algún correo no
os hemos respondido, escribid a otro,
y eventualmente responderemos.
Eso es todo, nos gustaría mucho que pudierais participar en AI Saturdays,
porque al final creemos que es una experiencia que merece la pena y
hay personas de bastante nivel
que van a estar dando una perspectiva
tanto teórica (desde la academia) como práctica (desde las empresas) de la IA
y creo que es algo que puede merece la pena a toda persona que quiera aprender de esto.
De hecho, yo hace varios años hubiera sido algo que hubiera querido tener
Así que simplemente me gustaría que aprovechéis esta oportunidad.
Y esto es todo; muchas gracias y espero que tengáis un buen día. ¡Chao!
