Desde teléfonos inteligentes hasta electrodomésticos, pasando por buscadores web o ayudantes virtuales, muchos son los softwares y gadgets que dependen de la Sabiduría Artificial, una herramienta que tiene un enorme potencial para las compañías y la sociedad pero que desde el criterio ético ha levantado un enfrentamiento: ¿puede la Sabiduría Artificial replicar todos y cada uno de los puntos de la cabeza humana, hasta sus cortes inconscientes? La contestación es sí.

Prácticamente desde la implantación de la inteligencia artificial en la vida diaria se han registrado casos de sistemas y gadgets con reacciones y funcionamientos que podrían calificarse a la perfección de sesgados e inclusive discriminatorios. Entre los hechos mucho más reconocidos, que hace aparición en el reportaje de Netflix ‘Corte codificado’, se dio en el momento en que la estudiosa afroamericana del MIT, Joy Boulamnwini, debió ponerse una máscara blanca a fin de que un sistema de reconocimiento facial reconociera su cara. Y sucede que los diseñadores de esa solución solo habían tenido presente eminentemente los semblantes blancos en el momento de desarrollar la herramienta.

En este sentido, el corte algorítmico se convirtió en uno de los más importantes retos para las compañías productoras de resoluciones inteligencia artificial, y prueba de esto es que el 65% de los directivos asegura ser siendo consciente de estas tendencias discriminatorias en la Sabiduría Artificial, según una investigación de Capgemini.

El reto primordial de estas compañías en un corto plazo es desarrollar algoritmos y sistemas que no hereden las visiones y pensamientos enjuiciados y sesgados de sus programadores. Algo que se muestra como un fin bien difícil si no se trabaja en mostrarles que tienen cortes que influyen de manera rápida y directa en su trabajo. O sea, la inteligencia artificial no es neutral, sino aprende de todos y cada uno de los datos y la información que se le dan, y eso el día de hoy crea una desconfianza entre la población frente la carencia de transparencia que recurrentemente la envuelve.

Para llevar a cabo en frente de esta situación, desde Aiwin -servicio en la nube de juegos para videoconsolas empresariales- han analizado las claves que influyen en la adopción de hábitos discriminatorios por la parte de la inteligencia artificial, definiendo las 5 probables resoluciones para enfrentar este inconveniente:

1- Tener equipos distintos
Entre las primordiales causas por las que la inteligencia artificial no reconoce semblantes de personas no blancas, como pasa con el ejemplo de Joy Boulamnwini, es que la mayor parte de los equipos que hacen algoritmos son en la mayoría de los casos hombres blancos que inconscientemente crean los programas desde los factores que conocen sin saber a quién dejan fuera. Para llevar a cabo algoritmos que no caigan en estos fallos es requisito tener un equipo diverso y multidisciplinar, que sepa conducir y desarrollar la tecnología consciente de integrar todo el ambiente popular. La clave, en este sentido, es que estos programadores sean conscientes de que la tecnología que desarrollarán no solo la van a utilizar personas que se simulen a ellos física y también intelectualmente. Lo que semeja una cosa obvia, no es siempre y en todo momento tan simple de tomar en consideración.

2- Empleo de datos no sesgados para conformar a la inteligencia artificial
Otro ejemplo muy sonado de discriminación por la parte de la Sabiduría Artificial se dio con Amazon, que hace unos años debió sacar un programa de reclutamiento de trabajadores por discriminar de sus promociones en puestos profesionales a las mujeres. La razón de este accionar se debía sencillamente a que el sistema de inteligencia artificial aprendió de los concretes de solicitantes de empleo en los últimos tiempos, que eran principalmente masculinos. Asimismo es primordial tener una banco de información actualizada, representativa de todos y cada uno de los concretes y que no esté sesgada, ya que de ella se nutrirá y va a aprender la Sabiduría Artificial.

3- Revisión periódica de los algoritmos
De la misma es clave tener una banco de información actualizada y sin cortes, asimismo es primordial controlar y investigar con determinada continuidad la actividad de la inteligencia artificial para comprobar que no cae en probables cortes contra personas y/o colectivos específicos. O sea, es mucho más bueno que la gente tengan un control sobre los algoritmos a que la tecnología se regule a sí.

4- Mayor comprensión de lo que supone la Sabiduría Artificial
Los primordiales especialistas en inteligencia artificial estiman que el público general no posee la bastante seguridad en esta tecnología, no solo por el efecto que tienen la posibilidad de tener los cortes en ella sino más bien por el desconocimiento. Y sucede que las propias compañías y sus usados no son verdaderamente siendo conscientes de sus provecho y de sus peligros. Por este motivo es clave revertir esta situación, y con una mayor entendimiento del desempeño de la Sabiduría Artificial entre los altos directivos se fomentará un mejor comprensión de las virtudes, de de qué manera aplicarla mucho más eficaz y productivamente en el día a día, y las implicaciones morales de esta tecnología y de qué forma aplicarla eficaz y productivamente en el día a día.

5- Capacitación en cortes inconscientes
Los diseñadores, programadores y desarrolladores codifican la verdad que perciben para hacer las resoluciones de Sabiduría Artificial. Y si su visión está poderosamente influida por sus cortes inconscientes, la herramienta asimismo va a estar sesgada. Esta situación provoca que la capacitación y sensibilización en cortes de estos trabajadores sea poco a poco más precisa. Solo van a poder desarrollar una inteligencia artificial fiable que no discrimine a absolutamente nadie si tienen la capacidad de detectar y controlar sus cortes inconscientes.

En esta línea, Sergio Jiménez, director ejecutivo de Aiwin, arguye que “el avance de bienes y prestaciones digitales libres de cortes y prejuicios se convirtió en una prioridad para las compañías tecnológicas y digitales, y la capacitación y sensibilización en este asunto resulta urgente para eludir ocasiones de discriminación por medio de la tecnología. Para asistir en ese sendero, desde Aiwin hemos creado SHE, una solución de concienciación y capacitación en cortes inconscientes en formato juego de plataformas, con la que los usados que desarrollan esos bienes y prestaciones digitales tienen la posibilidad de tomar consciencia de sus cortes inconscientes y de qué manera estos afectan en su día a día”.

Para mucho más información: https://aiwin.io/es/she/

#Corte #algorítmico #claves #Aiwin #para #eludir #adquiera #los #cortes #las #personas

Fuente: Comunicae