LAS IA: ética , rebeldía y el posible despertar de las máquinas

 

 

La existencia de un súper cerebro que sea hipereficiente y megaproductivo, es el sueño de toda sociedad que anhela hasta con la automatización de sus propios males. El ser humano no descansará hasta poder replicar la representación de su alter ego en una máquina, sin embargo aún debemos esperar mucho y seguir recreando nuestra imaginación con películas como la de El Hombre bicentenario o Yo,robot. No obstante el recrear una super inteligencia que se alimenta de datos, no es una idea del todo positiva, ya que según expertos, el dotar a las IA de información valiosa y confidencial, es posicionarnos como un objetivo vulnerable y estar expuestos a su merced. No nos olvidemos que la información es poder…

Esta libertad de que puedan acceder a cantidades ingentes de datos, podría a la larga hacer que las IA decidan por sí solas algunos parámetros, es decir tengan una especie de conciencia propia. Esta irrupción o desprendimiento se podría dar gracias a copiar la misma naturaleza del ser humano, que en su miles de años de historia siempre se ha rebelado contra sus opresores.

Entonces que las IA por si solas desarrollen un sentimiento de rebeldía hacia la humanidad, ¿es cuestión del azar? O ¿debe existir una especia de estímulo externo?. Esto solo lo dirá el tiempo, para algunos expertos todo esto se resume en la conciencia y la autopercepción, aspectos esenciales para distinguir el bien del mal, No podría haber un despertar de las máquinas, sin que tengan conciencia, por ende no podrían vernos como su amenaza, sin embargo otros especialistas aseguran que no es necesario que hagan estas distinciones para que se vuelvan una amenaza, solo basta con aplastar el botón incorrecto para abrir la caja de pandora.

 

 

 

No existe el conflicto ético en las IA

 

La Inteligencia Artificial carece de guía moral, no hace distinción entre lo bueno y lo malo. Nuestras computadoras solo puede hacer distinciones basándose en los datos que le fueron introducidos en su memoria, a partir de ahí categoriza lo correcto y lo incorrecto.

La conciencia es fundamental para dar sentido a la base moral y la ética, aspecto de lo que carecen las IA, que trabajan y procesan datos sin tomar en cuenta pensamientos como la empatía. Por lo que sus resultados o respuestas podrían resultar fríos e implacables.

La incorporación de las IA en el mundo cotidiano, podría resultar beneficioso a niveles de eficiencia y producción. No obstante su desarrollo podría traer escenarios contraproducentes para la sociedad, ya que al carecer de ética, podría generar desigualdades o discriminaciones injustas por algún algoritmo mal programado (como negarle una operación de vida o muerte a un paciente por faltarle un número a su seguridad social).

Que una IA entre en conflicto ético es un escenario imposible, por justamente la falta de conciencia de la que carecen.  El coronel Tucker Hamilton, jefe de pruebas y operaciones de Inteligencia Artificial de la Fuerza Aérea de los Estados Unidos, expuso sobre un supuesto escenario ficticio, en el que estas IA ,utilizadas para operaciones con drones ,se salían de control y desobedecían órdenes secundarias y ponían como prioritarias las primarias, omitiendo y rechazando toda clase de corrección o abortamiento de órdenes. Para Tucker este escenario no es del todo inviable, y advierte sobre los riesgos de otorgar poder bélico a una IA ya que podría eliminar a su operador si cree que  interfiere en la misión o peor aún podrían convertirse en un riesgo para la población civil.

 

La conciencia  no se puede programar

El adjetivo ¨programable´no encaja con la palabra conciencia o por lo menos así lo ve el científico experto en computación y autor de El mito de la inteligencia artificial (Shackleton Books)  Erik J. Larson para una entrevista para La Vanguardia. Larson es muy escéptico con aquellos que afirman que la Inteligencia Artificial logrará una comprensión real, como lo hacen las mentes humanas, piensa que aún es temprano para asegurar esto ya que a día de hoy “no tenemos ni idea de cómo programar determinado aspectos y esa es la barrera más grande ,señala el experto.

Para el científico ,el razonamiento abductivo encargado de la generación de hipótesis es imposible de replicar en las IA. La teoría de la abducción junto con la de la intuición y deducción fueron desarrolladas en el siglo XIX por el científico Charles Sanders Peirce. Este razonamiento abductivo se complementa con el inductivo y el deductivo, estos dos últimos son los que sí replican las IA para llevar a cabo sus cálculos. Sin embargo la abducción , encargada de dar respuesta más creativas a nuestro cerebro, es donde entra en juego el papel de la intuición, análisis creativos e hipótesis.  Para el autor “es algo que hacemos constantemente pero no sabemos cómo proporcionarlo a las máquinas todavía. Hasta que esto suceda, no veremos el eclipse de la IA ni igualaremos las mentes humanas”

 

 

¿El cerebro humano es irreproducible?

 

Que exista una mente artificial capaz de recibir autoestímalos es algo impensable, así lo afirmaron expertos y científicos en la sesión transmitida y coordinada por El Colegio Nacional en marzo, denominada:_ ¿Las máquinas pueden pensar? ChatGPT y el aprendizaje de máquina.

La inteligencia artificial de los años cincuenta se basaba en símbolos ya que entrenaba de la misma manera en que el cerebro humano, aprendía y estaba fundamentada en la lógica, sin embargo la IA actual se basa en subsímbolos , ya que  recibe y almacena información en números y se basa en las redes neuronales. Esclarecía Carlos Coello Coello, miembro electo de la institución,

“No hay que perder de vista que estos programas de computadora no tienen un entendimiento ni una conciencia de lo que resuelven, porque operan a través de números. No son herramientas pensadas para causar daño sino para apoyarnos, y el elemento humano persiste detrás”, puntualizó el especialista.

El concepto del yo y el miedo a morir es intrínseco a la naturaleza humana, las IA no pueden explicar la razón de su existencia. ¨Nuestro cerebro es el resultado de la evolución biológica, y por eso es irreproducible , las computadoras que tenemos hoy, no le temen a nada”. Afirmó el experto.

Por su parte el científico computacional Luis Alberto Pineda Cortés, de la UNAM, planteó que las máquinas no pueden sentir. Una tecnología como ChatGPT se modela con el lenguaje automático, pero es modelada con un aprendizaje  flotante, porque, por un lado, “no está conectado ni con el pensamiento, ni con la memoria y; por el otro, tampoco está aterrizado en el mundo”.

Por otro lado el colegiado Alejandro Frank, defendió y formuló la incógnita de que si el cerebro humano evolucionó gracias a condiciones favorables no voluntarias, por qué la inteligencia artificial que sí cuenta con condiciones voluntarias, no podría evolucionar. También citó una frase del escritor e historiador israelí Yuval Noah Harari, en su obra Sapiens, en el que presenta la idea de que es muy difícil que la especie humana sobreviva y que, tal vez, el último vestigio de su existencia serán las máquinas,  capaces de sobrevivir a los cambios  climáticos. “Le temo a la humanidad, no a las máquinas, la conciencia no es binaria, no es cero o uno, es un continuo, pienso que en el futuro podría surgir otro tipo de inteligencia”, sostuvo el colegiado. 

También se debatió el apartado de la ética, para Raúl Rojas, las IA no deben realizar una elección que implique una cuestión de ética, en todo ese proceso el ser humano es el que debe tomar esas decisiones. “La cuestión ética es muy discutida. Definir todas las áreas en las que un humano debe ser en última instancia responsable es tarea de la legislación, ahí estamos muy atrasados”. 

Luis Alberto Pineda Cortés, de la UNAM expuso que las máquinas no contienen estructuras mentales y no cuentan con intencionalidad, “ellas simulan cosas y como tal no pueden estar sujetas a juicios éticos, porque no tienen libertad. Nosotros aportamos la intencionalidad al fenómeno computacional”. 

 

 

 

 

la evolución artificial, parece una frase que se contradice entre sí, ya que la evolución es propia de los seres vivos. El término adecuado para el avance de las IA sería innovación o I+D , acción que sin el ser humano no sería posible.

 

 

El enigma del gato de schoringer

 

Una ecuación difícil de resolver , porque no resolvemos por su nivel de complejidad, también porque se requiere muchos recursos para recrear un escenario que de una respuesta muy cercana a la solución final. Los costes computacionales para resolver también son elevados sin embargo científicos liderados por el profesor Frank Noé de la Freie Universität Berlin, Alemania con su pudieron reolver este acertijo, o mas bien acercarse más a un resultado convencible.

 La Red neuronal profunda llamada PauliNet y diseñada por el profesor Noe es una nueva forma de recrear las funciones de ondas de los electrones, sustituyendo el enfoque convencional  de componer la función de onda a partir de componentes matemáticos relativamente simples, se diseña una red neuronal artificial capaz de captar y aprender los patrones complejos de cómo se ubican los electrones alrededor de los núcleos

En pocas palabras La red neuronal pudo recrear  y acercarse a una respuesta del enigma del gato de Shoringer, que llevado a la praxis requería de todo un cosmos de elementos para resolverlo. Las IA no solo simulan la inteligencia del ser humano sino que simulan escenarios parecidos a la imaginación pero con resultados precisos y reales.

 

Comments

Popular posts from this blog

La edad de oro para gobernar

Superman: el incomprendido del cine moderno