Los algoritmos de inteligencia artificial permiten tomar decisiones basadas en el análisis de un conjunto de datos (dataset) determinado. Este dataset es un factor determinante en los resultados que ofrece la IA, cuanto más amplio y variado sea mejor cumplirá su función.
Si el dataset tiene poca variedad de datos o datos sesgados los resultados a los que llegará la I.A. no serán acertados. Es lo que en al argot de la IA se llama bias (parcialidad).
Se están comenzando a producir situaciones que están generando polémica con resultados de análisis realizados por IAs relativos a minorías o a mujeres en Estados Unidos.
Se suministran una serie de datos a una IA y ésta llega a conclusiones consideradas escandalosas, para explicar estos resultados se pone el acento normalmente en el sesgo de los datos utilizados o en que la IA hereda los prejuicios de sus creadores.
¿Quién vigila al vigilante? ¿Es parcial el creador de la IA? ¿La IA? ¿O el humano que recibe el informe?
Las decisiones de una IA están basadas en un conjunto de datos que proviene del pasado en un determinado contexto, si cambia el contexto esos resultados no serán tan certeros. Se corre el riesgo de aceptar las decisiones de una IA y su modelo de datos para generar una situación petrificada que no admita una mejora o evolución por parte de un determinado grupo humano.
Cada persona es además un mundo, a tus vecinos puede apasionarles el fútbol, pero tú puedes ser la excepción. Pero para un algoritmo de IA tú serías un apasionado del fútbol sí o sí si cumples con las condiciones del análisis.
En temas financieros y de seguros idependientemente de la legalidad vigente este tipo de algoritmos son utilizados y cada vez van a tener más peso en las decisiones de las compañías del ramo.
Vamos a encontrarnos en unos años con situaciones verdaderamente conflictivas conforme el uso de la IA se extienda, en un principio las generaciones que venidos de un mundo pre-IA supondremos un freno a su presunta infalibilidad, pero conforme pasen los años no me extrañaría que estos frenos desaparezcan.
En fin, veremos que tal.
Si el dataset tiene poca variedad de datos o datos sesgados los resultados a los que llegará la I.A. no serán acertados. Es lo que en al argot de la IA se llama bias (parcialidad).
Se están comenzando a producir situaciones que están generando polémica con resultados de análisis realizados por IAs relativos a minorías o a mujeres en Estados Unidos.
Se suministran una serie de datos a una IA y ésta llega a conclusiones consideradas escandalosas, para explicar estos resultados se pone el acento normalmente en el sesgo de los datos utilizados o en que la IA hereda los prejuicios de sus creadores.
¿Quién vigila al vigilante? ¿Es parcial el creador de la IA? ¿La IA? ¿O el humano que recibe el informe?
Las decisiones de una IA están basadas en un conjunto de datos que proviene del pasado en un determinado contexto, si cambia el contexto esos resultados no serán tan certeros. Se corre el riesgo de aceptar las decisiones de una IA y su modelo de datos para generar una situación petrificada que no admita una mejora o evolución por parte de un determinado grupo humano.
Cada persona es además un mundo, a tus vecinos puede apasionarles el fútbol, pero tú puedes ser la excepción. Pero para un algoritmo de IA tú serías un apasionado del fútbol sí o sí si cumples con las condiciones del análisis.
En temas financieros y de seguros idependientemente de la legalidad vigente este tipo de algoritmos son utilizados y cada vez van a tener más peso en las decisiones de las compañías del ramo.
Vamos a encontrarnos en unos años con situaciones verdaderamente conflictivas conforme el uso de la IA se extienda, en un principio las generaciones que venidos de un mundo pre-IA supondremos un freno a su presunta infalibilidad, pero conforme pasen los años no me extrañaría que estos frenos desaparezcan.
En fin, veremos que tal.
Comentarios