
Apple busca vincular pensamientos con el control del iPhone, y hay una razón muy convincente para ello.
Dispositivos controlados por la mente, junto con inteligencia artificial, pueden unir a personas con discapacidades con el resto del mundo.
Apple ha revelado su intención de respaldar el uso de control Swtich para interfaces cerebro-computadora (BCI, por sus siglas en inglés), una iniciativa que promete hacer que dispositivos como iPhones y los cascos Vision Pro sean más accesibles para individuos con condiciones como la esclerosis lateral amiotrófica (ELA). Este avance, combinado con la función Personal Voice impulsada por inteligencia artificial de Apple, podría permitir a los usuarios pensar en palabras y escucharlas a través de una versión sintética de su propia voz.
Para muchas personas, los teléfonos inteligentes y otros dispositivos son esenciales en su vida diaria, tanto personal como profesional. Sin embargo, para quienes padecen ELA y otras enfermedades, el uso de estos dispositivos puede ser complicado o incluso imposible. La solución que propone Apple implica el uso de un BCI, desarrollado en colaboración con la startup australiana Synchron. Este dispositivo, que se implanta cerca de la corteza motora del cerebro, permite el control por medio del pensamiento, otorgando a los usuarios una forma de interactuar con sistemas operativos de iPhones, iPads y el Vision Pro sin necesidad de tocar la pantalla.
Aunque la idea de un implante cerebral para manejar un teléfono puede parecer extrema, podría representar una puerta de entrada para aquellos con lesiones graves en la médula espinal o condiciones afines, facilitando su conexión con el entorno. Este implante registra las señales eléctricas del cerebro cuando una persona piensa en moverse y traduce esta actividad en acciones digitales mediante el software Switch Control de Apple, permitiendo a los usuarios seleccionar íconos en la pantalla o navegar en un entorno virtual.
A pesar de que el sistema aún está en sus primeras etapas y puede ser más lento que el uso de un toque, lo crucial es que brinda a las personas la oportunidad de interactuar con un mundo que de otra manera les resultaría inaccesible. La integración con voces generadas por inteligencia artificial incrementa las posibilidades. Con la función Personal Voice de Apple, los usuarios pueden grabar una muestra de su voz para que, en caso de perder la capacidad de hablar, puedan generar un habla sintética que suene similar a ellos. Aunque no es completamente indistinguible del habla real, es mucho más humano que las imitaciones robóticas de épocas anteriores.
Actualmente, las voces se activan mediante el tacto, el seguimiento ocular u otras tecnologías asistivas. Sin embargo, con la integración de BCI, las personas tendrían la capacidad de "pensar" en su voz, permitiendo hablar simplemente con la intención de hacerlo, mientras el sistema hace el resto. Este avance podría permitir a una persona con ELA no solo navegar su iPhone con el pensamiento, sino también volver a hablar a través del mismo dispositivo al "teclear" declaraciones para su clon de voz sintética.
La posibilidad de que un implante cerebral permita controlar una computadora solo con la mente es asombroso; sin embargo, la inteligencia artificial podría llevar esta capacidad a un nivel aún más elevado. No solo facilitaría el uso de la tecnología, sino que también ayudaría a las personas a expresarse en el mundo digital de manera más auténtica.