Me encantaría que llegara un momento en el que no tuviéramos que
pensár
en los discapacitados como en otra categoría
Intel ha tenido una
relación estrecha con Stephen Hawking
durante más de dos décadas
empezó  cuando nuestro
co-fundador el doctor Gordon Moore
conoció al profesor Hawking en un evento
en ese momento le prometió que intel
soportaría todas sus necesidades
informáticas, durante el resto de su
vida. Debido a esta relación
hace unos cuatro años, el profesor Hawking se puso en contacto con el doctor Moore,
Y le preguntó, si había algo que Intel pudiera hacer
No sólo
en términos de crear una nueva máquina
Sí no también para cambiar por
completo la forma que tenía para
comunicarse
Quería algo
que se pareciera y si sintieran como lo
que ya tenía
Hawking utilizaba un sistema
muy antiguo; así quería mucho trabajo
que hacer. Podríamos decir que es
un sistema que funciona en tres partes
la primera parte, es el sensor
que mide algún movimiento que
realiza el profesor Hawking 
específicamente en este caso él tiene
un sensor de proximidad que está en sus
gafas
y permita que, cada vez que mueve el pómulo el sensor de proximidad se
activa, y la señal se envía una
plataforma de software que funciona
en su ordenador windows
la segunda pieza es la plataforma de
software. Lo que hace este sistema
Es actuar como un conductor
entre el sensor y Windows
así que tiene un teclado virtual
y una simulación de ratón
que le permite escribir con
el teclado en un interfaz temporizado.
puede visualizar un cursor que va por cada letra y cuando llega a la letra
deseada el puede mover su pómulo
 y activar la letra
Ésta se escribe y hay un predictor
de palabras. Así que cuando
pone el suficiente número de letras aparece la palabra directamente
El ve que aparece la palabra
en el predictor de palabras
y puede seleccionarla una vez más con
el interface de tiempo.
y una vez lo ha escrito todo
puede activar el sistema de
lenguaje sintetizado
y esta es la tercera parte del
sistema. Este sistema es muy
interesante porque es una voz
robótica, que
Stephen ha acabado por identificar como su propia voz
Stephen usa su máquina como lo
haríamos cualquiera de nosotros
prepara y da las elecciones, y navega por internet
Contesta e-mails,  hace
todas estas cosas.
Así que, cuando empezamos a observarle 
bien
mientras realizaba estas tareas
nos dimos cuenta
de que llevaba mucho tiempo hacer
cualquiera de estas cosas.
Por que ahora con el simulador de ratón tiene que empezar a bajar
hasta llegar a la línea que le interesa
Y ahí activa el sensor  y
después empieza a ir hacia la derecha
hasta que llega al punto que quiere y entonces activa el sensor de nuevo
es un proceso muy lento. Estábamos buscando por ejemplo mejorar de
verdad que el sistema de predicción de
palabras si lo piensas, él dice que
no quiere cambiar  el interfaz
del teclado, pero si quieres ir
más rápido sin cambiar el interface del teclado
lo único que puedes hacer es tener que teclear menos letras
Eso se traduciría en más velocidad 
puede empezar a teclear y el sistema puede
predecir la siguiente palabra sólo por
el contexto del contenido de la frase
sin tener que teclear ninguna letra de
esa palabra
porque la gente es muy predecible y si adaptas el sistema
puedes adivinar bastante  que es lo
siguiente qué van a decir
El daba  muchacha feed-back
incluso cosas como los menús
Qué items del menú tenían que ser
acelerados dentro de los módulos
para todo ese tipo de cosas nos daba feed-back
por supuesto cada vez que lo usaba
encontraban un error
Así que estaba también en el proceso de validación. Lo que le decidimos hacer  fué básicamente
construir una especie de
plataforma abierta que nos permite
integrar nuevos tipos de innovación y esto eventualmente
tendrá la ventaja de permitir
que otros usuarios lo utilicen. Por
ejemplo uno de los pacientes con
los que trabajamos podía mover su dedo
no podría presionar el botón, porque no
tenía suficientes fuerza
pero podía moverlo levemente 
lo que no podía mover era su cara
al final de un período de dos semanas
fuimos capaces de construir un anillo
basado en un acelerómetro, que puede
detectar el movimiento
y se ha integrado al software
que ya tenemos. Creamos toda la
documentación necesaria para que la
gente lo descargara
Se descargara el sensor y lo probará
Y fue increíble.
Mucha gente me escribió diciendome
que podían activarlo desde una cámara 
y utilizar el sistema tal y como era
cualquier persona que esté
construyendo una tecnología relevante
ya sea un predictor de palabras, un sensor o lo que sea
Puede lanzar su innovación en el
mercado muy rápidamente.
Todo lo que tiene que hacer es integrar
esa parte, integrarla en el sistema
y entonces obtiene la habilidad
impactar a mucha gente
Todos tenemos distintos tipos de limitaciones
Porque ahora, estamos inmersos en situaciones en las que conducimos y queremos enviar
mensajes y llamar. Y vamos 
ajetreados mientras intentamos hacer
estas cosas. Con la tecnología
móvil
surgió la necesidad de diferentes tipos
de tecnologías adaptadas
Al hecho, de que todos nosotros
tenemos algún tipo de discapacidad
mientras intentando superar
nuestro muro a la vez que usamos tecnología
¿cómo creamos tecnologías que contemplan estas limitaciones?
Y, literalmente, cambiar el mundo
para ser uno de experiencias muy personalizadas para
todo el mundo. Y todos
reciben su versión de una experiencia
personalizada a través de los avances
de los sensores
la creación de nuevos sensores
o la adaptación y tecnologías de
inteligencia artificial,
que aprenden solas. Una vez hagamos eso podemos empezar a pensar en el mundo
como un lugar en el que se puede crear
una experiencia personal para cada individuo
y no separar entre los que tienen alguna discapacidad y los que no la tienen
