Mostrando las entradas con la etiqueta IA. Mostrar todas las entradas
Mostrando las entradas con la etiqueta IA. Mostrar todas las entradas

domingo, 6 de marzo de 2022

INTELIGENCIA ARTIFICIAL EN MANOS IMPERFECTAS

 

El humano un ser imperfecto y  creador ¿puede enfrentarse éticamente  a la producción y uso de nuevas formas de tecnología? En esta entrada de blog se analizan algunos alcances éticos de la inteligencia artificial y  cómo está afectando al ser humano.

 Créditos de imagen: https://www.observatorio.tec.mx%2Fedu-news%2Fes-tiempo-de-hablar-de-etica-en-inteligencia-artificial&psig=AOvVaw3ApOEz9xSJTz8yu91tjwAS&ust=1646695090760000&source=images&cd=vfe&ved=2ahUKEwjHkeOwz7L2AhUWMrkGHSuZDSAQr4kDegUIARDFAQ

Actualmente vivimos en un mundo  inmerso en la tecnología, nos rodean sistemas capaces de recabar y predecir información, de identificarnos e individualizarnos entre otras cosas. Creaciones que eran solo parte de películas de ficción, robots, autos que se conducen “solos”, máquinas que hablan. 

Pero ¿Cuáles son los límites éticos de la IA? Valverde (2021) señala al respecto que al ampliarse  las aplicaciones  de las  tecnologías de IA,  por ejemplo evaluar estudiantes, seleccionar personas para empleos, utilización en seguridad (reconocimiento facial, biometría, cruce de datos) se está  entregando a una máquina la responsabilidad de decidir, lo cual nos enfrenta a  dilema ético ya que las decisiones que debe tomar una maquina  afectan tanto  la libertad y la vida de las personas. Coloquémonos en el siguiente escenario, el mejor empleado de una empresa (bien calificado por años y reconocido por sus capacidades) se enfrenta  a una evaluación que utiliza  IA y el empleado es mal calificado y por tanto debe ser despedido. ¿Es ético despedir a esta persona? ¿Puede una máquina tomar decisiones aplicando la ética?

En el caso expuesto, queda patente que las máquinas no pueden decidir como un ser humano, pues no tienen la capacidad de extrapolar y de aplicar criterios de bien y mal (son amorales); además, el decidir implica tomar decisiones bajo diversos parámetros como el emocional. Una maquina solo aplica el algoritmo diseñado; no obstante, no es capaz de  “evaluar”; el evaluar implica un criterio de valor.

Al respecto, González y Martínez (2020) reafirman que los sistemas de inteligencia artificial,  como sistemas amorales, asumen la naturaleza de sus creadores; no será la tecnología en sí la que dominará el mundo o acabarán con el planeta, sino que las armas y los sistemas autónomos e inteligentes son programados por el ser humano.

Valverde (2021) amplia esta discusión, recalcando que la IA al incluir varios enfoques y técnicas, como  machine learningmachine reasoning,, robótica  y la integración de todas las demás técnicas en los sistemas ciberfísicos, hace que los problemas éticos puedan diferenciarse entre:

1) 1) La inteligencia superior o superinteligencia  (tipo de inteligencia que supera a la humana, de modo que las máquinas pueden sustituir al hombre). En este punto se habla de propuestas transhumanistas y posthumanistas. ¿Estas máquinas debiesen tener un sistema de valores propios según su actuar, dado su inteligencia superior?  En este punto me detengo, ya que si pensamos, una máquina para poder tener su propio sistema de valores debe desarrollar una red neuronal que le permita tener las mismas facultades que los humanos, llegar a desarrollar un sistema que le permita interactuar con su entorno y adaptarse a él.

2) Inteligencia general (puede resolver problemas generales); sin embargo, una máquina no conoce el significado de los símbolos que maneja. Para la autora resulta improbable este tipo de IA sin un cuerpo, ya que las máquinas carecen del conocimiento de sentido común que es posible por nuestras vivencias corporales porque simularían intencionalidad, emociones, valores y sentido común, pero no dejaría de ser una simulación, pero las maquinas solo “harían como si” sintieran.

 3) Inteligencia especial, es la propia de sistemas inteligentes capaces de realizar tareas concretas de forma muy superior a la inteligencia humana, ya que cuentan con una gran cantidad de datos y algoritmos sofisticados. Es así, que la maquinas han resuelto una gran cantidad de problemas gracias a su algoritmo, como por ejemplo en el sector de la salud (analizan los síntomas de un paciente, hacen un diagnóstico y proponen un tratamiento), en predicción climatológica, productividad y eficiencia empresarial, reconocer voces humanas y leer textos; además de la búsqueda sistemática de un patrón en un amplio registro histórico conocido como minería de datos (data mining), el cual se utiliza de forma rutinaria en investigación científica y en el mundo de los negocios.

¿Podrán las máquinas reemplazar a los humanos? Bien es sabido que  los cambios tecnológicos son acompañados de profundos cambios sociales. González y Martínez (2020) señalan al respecto que  estos cambios se han  traducido en la desaparición de puestos de trabajo. Estudios  estiman que entre el 21% y el 38% del empleo en los países desarrollados podría desaparecer debido a la digitalización y la automatización de la economía. No obstante, hay empleos que necesitan de habilidades blandas, la cual hasta el momento no poseen las máquinas.

Otro aspecto a destacar, es que la introducción de la IA en diversos ámbitos ha transformado las relaciones humanas, lo notamos en el uso prolongado de pantallas, los dispositivos móviles y las RRSS  las cuales han influido notablemente en nuestras habilidades cognitivas, estabilidad emocional y salud física  y la pérdida de habilidades personales (González y Muñoz 2020); además, han influido negativamente en el pensamiento divergente de los seres humanos, quienes se alejan cada vez más de la complejidad.

Marín et al. (2019) sugiere los siguientes principios  éticos:

1. Respeto de la autonomía humana

2. Transparencia

3. Responsabilidad y rendición de cuentas

4. Robustez y seguridad


                                       Créditos de imagen: https://www.agenciasinc.es%2FReportajes%2FPor-que-deberia-preocuparte-la-etica-de-la-inteligencia-artificial&psig=AOvVaw3ApOEz9xSJTz8yu91tjwAS&ust=1646695090760000&source=images&cd=vfe&ved=2ahUKEwjHkeOwz7L2AhUWMrkGHSuZDSAQr4kDegUIARC5AQ

              

La IA ha demostrado  ser beneficiosa para sistema sanitarios,  las empresas, los consumidores, los investigadores, etc.; es por esta razón que es esperable que los avances y desarrollos  próximos consideren una  actitud prudente al momento de a diseñar y emplear  la IA apuntando a que sea más justa, inclusiva y responsable, no nos olvidemos que están creadas por seres imperfectos.

 

Para saber más: https://elpais.com/retina/2019/02/25/tendencias/1551089772_654032.html

https://es.wikipedia.org/wiki/%C3%89tica_en_la_inteligencia_artificial


Fuentes:

González, M., Martínez, D.  (2020). Dilemas éticos en el escenario de la inteligencia  Artificial. Economía y Sociedad, 25 (57), 1-17

DOI: https://doi.org/10.15359/eys.25-57.5

Marín, S. (2019). Ética e inteligencia Artificial. Cuaderno nº 42 - Cuadernos de la Cátedra CaixaBank de Responsabilidad Social Corporativa

DOI: https://dx.doi.org/10.15581/018.ST-522

Valverde, N. (2021). Inteligencia artificial y nuevas éticas de la convivencia.  ARBOR Ciencia, Pensamiento y Cultura 197 (800) Abril-Junio, 2021, a599

DOI: https://doi.org/10.3989/arbor.2021.800001 


sábado, 19 de febrero de 2022

APRENDIZAJE PROFUNDO: DESDE LA PEDAGOGIA A LA INTELIGENCIA ARTIFICIAL. 👀👌

 

                                          Créditos de la imagen: https://www.treelogic.com/es/Deep_Learning.html

¡Ufff!... Difícil me es hablar de aprendizaje profundo desde la inteligencia artificial y no desde la pedagogía. En el campo de investigación de cómo aprendemos, aún queda mucho que investigar; sin embargo, existen teorías como la “Teoría Biológica del Conocimiento” que nos dan algunas luces de ¿Cómo aprendemos?  Para Maturana (2003) en Ortiz (2015)  existe aprendizaje cuando la conducta varía durante la  ontogenia de manera congruente con las variaciones del medio, siguiendo un curso contingente a sus interacciones en él. Para un observador, las transformaciones configuracionales que se generan en el cerebro humano se corresponden con las situaciones de interacción entre el ser humano y su entorno; además, se le otorga gran importancia al lenguaje.

 Antes de contrastar estas afirmaciones anteriores con el  aprendizaje profundo, vamos a revisar algunos aspectos grosso modo.  De acuerdo con Franco & Ramos (2019) este  aprendizaje  basa en la aplicación de algoritmos de redes neuronales artificiales  que forman varias capas  y son capaces de encontrar e inferir patrones complejos dentro de datos; estos algoritmos intentan reproducir el comportamiento del cerebro humano, a través de la reproducción de los procesos de conexión de las neuronas, es por esta razón que estas redes  son hábiles a la hora de aprender tareas y funciones complejas a partir de las entradas recibidas.

El comportamiento de una red neuronal artificial queda definido por la fuerza, las conexiones entre neuronas y la forma en que las entradas se transforman. Precisamente, las entradas son transformadas  por medio de  una función de activación predefinida, la que puede ser sigmoide o tangente o hiperbólica, la que a su vez  determina un valor o peso.

El valor determina la activación o desactivación de la siguiente neurona dentro de la red, según sea  la cantidad de capas y neuronas que tenga  la red puede tener diferentes capacidades de profundizar en aprendizaje y  autorregulación. 

                                    Créditos de la imagen: https://unipython.com/deep-learning-aprendizaje-profundo/

Podemos encontrar dos tipos:

Aprendizaje profundo supervisado: su objetivo es construir redes que reciban un conjunto de variables de entrada y devuelva una predicción. Ejemplos: red neuronal convolucional, red neuronal recuente y rede neuronal convolucional gráfica.

Aprendizaje profundo no supervisando: su objetivo es caracterizar y describir los conjuntos de datos no etiquetados, permitiendo descubrir y aprender sus patrones y características, de este modo lograr entender las relaciones que existen dentro de los datos. Ejemplos: autoencode y las redes generativas antagónicas.

 Para saber más: https://www.xataka.com/robotica-e-ia/machine-learning-y-deep-learning-como-entender-las-claves-del-presente-y-futuro-de-la-inteligencia-artificial

 

Ahora bien, realizando la comparación del aprendizaje en humanos y en máquinas, a partir de lo expuesto por Maturana  (2003) en Ortiz (2015)   y lo planteado por Franco & Ramos (2019) podemos hacer algunas críticas.

 El aprendizaje se da al variar la conducta congruentemente con las variaciones del medio, esto se da en humanos, ya que poseen un sistema nervioso que le permite recibir estímulos, en el caso de la maquina puede recibir datos, pero no puede procesarlos al mismo nivel sensitivo y motor que el humano, lo cual no permitiría una respuesta y adaptación al medio adecuada.

El proceso de aprendizaje en humanos está íntimamente ligado al lenguaje, el cual es complejo y cambiante, una palabra puede tener varios significados según el contexto que se le dé. Una maquina no podría manejar el lenguaje a este nivel, ya que no puede abstraer al nivel del ser humano.  Otro punto que considera Maturana, son los conocimientos previos, los cuales el ser humano utiliza para enfrentarse a una nueva situación.

 Lo anteriormente expuesto coincide en algunos aspectos con lo expresado por Marcus (2018):  

*Necesita demasiados datos

*No sabe diferenciar la jerarquía en una frase subordinada

*El aprendizaje profundo no es lo suficientemente transparente (conocido como caja negra)

*No está bien integrado con el conocimiento previo

*No puede distinguir la causalidad de la correlación

*Funciona bien como una aproximación, pero no se debe confiar plenamente en las respuestas

*Presenta problemas de ingeniería, de integración con otros componentes para crear sistemas

*El aprendizaje profundo es difícil de diseñar

*No resuelve los problemas que requieren sentido común

*No da buenas soluciones a problemas en los que los datos son escasos

*Falta de adaptabilidad

*Sin capacidad interpretativa

*Se producir imperfecciones en la fase de entrenamiento de las redes neuronales

 No obstante, encontramos criticas positivas, como las de Diaz (2021) quien señala que aprendizaje profundo será una de las tantas  herramientas que por sus avances permitirán acelerar la transición hacia una economía circular, mejorar campos como la medicina, biotecnología, entre tantas otras que irán de la mano con la evolución de la humanidad, transitando por un camino de mutuo beneficio.

 

 

 Fuentes: 

Diaz, J. (2021). Aprendizaje Automático y Aprendizaje Profundo. Ingeniare. Revista chilena de ingeniería, 29(2), 182-183

https://www.researchgate.net/publication/353025421_Aprendizaje_Automatico_y_Aprendizaje_Profundo

 Franco, F., Ramos, J. (2019). Aprendizaje de máquina y aprendizaje profundo en biotecnología: aplicaciones, impactos y desafíos. Ciencia, Ambiente y Clima.  2(2), 7-26. Doi: https://doi.org/10.22206/cac.2019.v2i2.pp7-26

Marcus, G. (2018), Deep Learning: A Critical Appraisal, https://arxiv.org/abs/1801.00631

Ortiz, J. (2015). Enseñanza, aprendizaje y evaluación: una configuración triádica. TED. 37 enero- junio. http://www.scielo.org.co/pdf/ted/n37/n37a06.pdf

 

 

 


viernes, 18 de febrero de 2022

BUSCANDO EL RUMBO: EL ALGORITMO A* 👀💻

 

El Algoritmo A* es un algoritmo de búsqueda  que se desarrolló en 1968, el cual  encuentra la ruta más corta entre dos puntos. Su diseño inicial le permitía resolver problemas transversales de grafos; posteriormente, se usó para aplicaciones de búsqueda de caminos en videojuegos, inteligencia artificial y robótica. 

 

Este algoritmo presenta un diseño que le permite identificar una ruta óptima desde una posición inicial dada hasta una posición de destino dada y combina la búsqueda de costo uniforme (del Algoritmo Dijkstra) y los algoritmos de búsqueda codiciosos; si lo comparamos con otros algoritmos, presenta un tiempo de ejecución más breve, de fácil implementación y una  alta eficiencia.

Puedes ahondar en su funcionamiento visitando la página: https://www.lanshor.com/pathfinding-a-estrella/

Es un algoritmo informado, utiliza una heurística (información acerca de la posibilidad de que un nodo específico sea mejor para intentar la próxima elección que cualquier otro nodo) lo que marca una tendencia hacia la meta reduciendo de manera significativa el espacio de  búsqueda; esta heurística es admisible, es decir, no sobreestima la distancia sobrante entre el nodo presente y el nodo de la meta.

Función heurística de A*

f(n) = g(n) + h(n)          

La función se encuentra compuesta por: 

g(n) : es el costo de las movidas realizadas. 

h(n) : es la función heurística. Representa el costo estimado del mejor camino.

Ya que la g(n) nos da el coste del camino desde el nodo inicio al nodo n, y la h(n) el coste estimado del camino más barato desde n al objetivo, tenemos: f(n)= coste más barato estimado de la solución a través de n.


                                 Créditos de imagen: https://www.lanshor.com/pathfinding-a-estrella/

¿Qué tipos de problemas no podrían ser resueltos por medio del algoritmo A*?

v -  El algoritmo A* es útil en ambientes estáticos, pero no en un sistema cambiante,  donde las condiciones externas  sean alteradas por factores que no controlamos.

v -  La calidad de A* depende de la calidad en la heurística estimadora h (n), si se acerca bastante al verdadero costo del camino restante, su eficiencia será alta, pero si es muy bajo, su eficiencia disminuye.

v  - No puede resolver problemas en los que la dimensión del espacio de búsqueda sea muy grande.

v - En Pathfinding, (planificación de una ruta), el algoritmo tendría dificultades cuando el problema contenga múltiples agentes, en los que el número de nodos a expandir sean exponenciales en longitud de la solución; lo que hace que se quede sin espacio antes de que se quede sin tiempo.

v  - Problemas con más de una solución correcta.

v -  Problemas de consecuencia incierta: no es posible planificar con certeza pues no se sabe que ocurrirá luego del siguiente movimiento, según García (2009).

v  - Los algoritmos de búsqueda heurística de agente único no pueden ser utilizados en aplicaciones en tiempo real, debido a su costo computacional  y el hecho de que no pueden comprometerse a una acción antes de que se conozca su resultado final. Korf (1990) 

      Por ultimo, elucubrando, problemas en donde el algoritmo debe crear rutas y no encontrarlas.  




Fuentes:

Lasso-Cardona, Franco-Ocampo, Agudelo-Acevedo.  (2020). Algoritmos voraces y heurísticos: un enfoque en el problema de la ruta mínima. INGE CUC, 16(2), 67–85.

Daniel García López (2009). Curso Inteligencia Artificial. Unidad III: Solución de problemas por búsqueda

Tomás, V., Núñez, F., Andrade, E. Análisis de algoritmos de búsqueda en espacio de estados. Ciencias Huasteca Boletín científico de la escuela superior de Hueutla.

DOI: https://10.29057/ESH.V3I5.1089

Korf, R. (1990). Real-Time Heuristic Search.  Artificial Intelligence, 42(2-3), 189-211

DOI: https://10.1016/0004-3702(90)90054-4

Algoritmo A*. Instituto Tecnológico de Nuevo Laredo

http://www.itnuevolaredo.edu.mx/takeyas/libroisc/03.-ConceptosAlgoritmos.pdf

https://revistascientificas.cuc.edu.co/ingecuc/article/download/2752/3531?inline=1


miércoles, 16 de febrero de 2022

Test de Turing: 👨 O 👩 💻👀

 ¿En qué consiste y para qué se utiliza el test de Turing?

Barón (2008) explica basado en “Los aparatos de computación y la inteligencia” Turing (1950),  la “Prueba o Test de Turing”. Esta prueba plantea la posibilidad de pensamiento en las máquinas, para esto, se basa en un juego llamado “Juego de la Imitación”; este juego necesita de tres participantes: un hombre (A), una mujer (B) y un interrogador (C) (que puede ser hombre o mujer).

El interrogador  está separado de los otros jugadores y no puede verlos ni escucharlos; solo los conoce como X e Y; además, solo puede comunicarse con  los otros jugadores  de manera escrita mediante  una máquina.  El objetivo del interrogador es adivinar quién es el hombre y quién la mujer;  el papel del hombre es persuadir al interrogador a hacer una identificación errónea; y el  papel de la mujer es colaborar con el interrogador para que este identifique correctamente quién es quién.

                                                 Figura 1: Juego de la imitación 

                                                 Fuente: Scielo.cl

Posteriormente, Turing (1950) en González (2007) plantea las siguientes preguntas: “¿Qué sucederá cuando una máquina tome la parte de A en el juego? ¿Decidirá equivocadamente el interrogador con la misma frecuencia cuando se juega así el juego como ocurre cuando en él participan un hombre y una mujer?”

La idea, entonces  es esta: si en el juego, una máquina logra engañar al interrogador, haciéndole creer que es una mujer o que el otro jugador es un hombre, una cantidad de veces semejantes a la que ocurrirían si el juego se diera entre humanos, pero  mayor a la que ocurriría por azar, podría afirmarse que la máquina piensa y, por tanto, que las máquinas pueden pensar.

 Sin embargo, Turing se aleja del concepto de “pensar” y aclara que la idea del test es que la máquina tiene que simular ser un humano  respondiendo a las preguntas que se le hacen, y sólo pasará este test si la simulación es suficientemente convincente.  (Turing, 1950 en González, 2017).

 

                                                      Figura 2: Prueba de Turing

                                                      Fuente: Scielo.cl 

De acuerdo con González (2007) que la finalidad del juego sea inducir al interrogador  a efectuar identificaciones erróneas sugiere que el Test de Turing  sea utilizado con el fin de verificar la existencia de inteligencia en base a la imitación y la simulación eficaz. Este objetivo del test, ha impactado en el concepto de simulación en IA.

Tú puedes ser parte de esta prueba, ingresa a: https://umhsapiens.com/eres-un-robot-aprueba-el-test-de-turing/





Fuentes

Barón Birchenall, Leonardo Francisco. (2008). El juego de imitación de Turing y el pensamiento humano. Avances en Psicología Latinoamericana26(2), 180-194. Retrieved February 16, 2022, from http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S1794-47242008000200006&lng=en&tlng=es.

González, Rodrigo. (2007). El Test de Turing: dos mitos, un dogma. Revista de filosofía, 63, 37-53. https://dx.doi.org/10.4067/S0718-43602007000100003

Test de Turing en línea:  https://umhsapiens.com/eres-un-robot-aprueba-el-test-de-turing/


lunes, 14 de febrero de 2022

MI PRIMERA VOLÀ EN IA. 🤖👀

Me es imposible hablar de inteligencia artificial (en adelante, IA) sin traer a la memoria “La Rebelión de las máquinas” o “Yo Robot “, de Isaac Asimov. La primera idea, a partir de esos relatos y lo que he leído sobre el tema, hace pensar en IA como una rama científica (no ciencia en sí) encargada de crear máquinas inteligentes.


Esta área de la ciencia es interdisciplinar, ya que confluyen en ella la robótica, tecnología, neurociencia, lógica, informática, ingeniería, pedagogía, programación, etc. Por tanto, la cantidad de ciencias  que se valen de ella, hacen suponer que  no es una disciplina como otras; además, es un campo de estudio nuevo, el  cual depende del avance de otras ciencias como por ejemplo de la neurociencia, para  conocer el funcionamiento del cerebro humano a cabalidad.

Su objetivo debe ser  permitir al ser humano alcanzar aquellas tareas que por su naturaleza  (en cuanto a los sentidos) o capacidades físicas  serían inalcanzables, pero “pensando como ser humano” o bien, realizar las mismas tareas que un ser humano.

Respondiendo a los riesgos, no concibo el escenario de “La Rebelión de las Maquinas”,  lo que si me causa ruido, es que el ser humano no les de buen uso  (por ejemplo bélico) y no sería la maquina contra el ser humano, sería el ser humano contra sí mismo.

Otro aspecto que me causa ruido, son organismos biológicos programables, ya que como en el caso anterior, me llevan a preguntarme ¿Quién regula su uso? ¿Éticamente como especie estamos capacitados?