Liderazgo | Noticias | 08 NOV 2018

La ética digital se consolida como un aspecto clave en la toma de decisiones del CIO

El uso de herramientas como inteligencia artificial y analítica de datos reclama una serie de consideraciones sobre sus implicaciones.
interrogación
María Ramos

Es un debate abierto y continuo en el sector. El desarrollo tecnológico ha llevado a que, por un lado, se comparta más información y más personal que en cualquier otra época anterior. Por el otro, las herramientas se están perfeccionando a un nivel en el que un manejo equívoco —una serie de comandos equívocos, de hecho— puede tener consecuencias de gran calado. Pero... ¿qué está bien y qué está mal cuando se habla de esos usos de la tecnología? ¿Qué debe prohibirse y qué permitirse?

La pregunta lleva bastantes años en el aire, acompañando a cada avance importante, pero toman una nueva dimensión ante la capacidad de la digitalización de llegar a muchas más gentes de forma acelerada. De hecho, la consultora Gartner sitúa ética digital y privacidad como una de las diez tendencias tecnológicas que marcarán 2019, debido a una mayor consciencia entre los usuarios del empleo de sus datos por parte de instituciones y compañías y el incremento de las medidas y regulaciones para protegerlas que están experimentando estas (o deberían). De hecho, desde la firma de estudios de mercado inciden en ampliar el foco, para abordar este tema desde la perspectiva de la ética y la confianza y no únicamente de la privacidad: el paso de simplemente cumplir con las normas a plantearse si se está haciendo lo correcto. 

Esta última reflexión es la que se está revelando en el fondo de iniciativas de distintas instituciones, como la decisión de la OECD de crear un grupo de especialistas que marquen las líneas de acción a la hora de trabajar con inteligencia artificial. O la creación de un grupo de expertos del Instituto de Internet de la Universidad de Oxford, el Digital Ethics Lab, que tiene en marcha dos proyectos: la creación de un código ético en Europa sobre la donación de información personal para fines como investigación o temas humanitarios, y la iniciativa centrada en explorar elementos críticos de confianza, seguridad y ética en el uso de IoT. Las empresas tampoco son ajenas al debate: compañías como Google o Telefónica han presentado sus principios éticos para el trabajo con inteligencia artificial.

La tecnología de IA y el uso de datos son, sin duda, de las disciplinas que más dilemas plantean a nivel ético en su trabajo. Recientemente, el presidente de Samsung Electronics, Young Sohn, hablaba sobre la aplicación de esta herramienta, planteando un escenario casi distópico en el que todos los elementos, incluso la información del ADN, era analizados y clasificados en aras de la investigación científica. En declaraciones a Business Insider, Sohn se reconocía preocupado por las implicaciones éticas del uso de distintas herramientas, manifestando que deben estar guiadas por principios y ser empleadas con propósitos claros, no simplemente para sacar provecho.

Otro de los grandes debates éticos en el uso de tecnología viene en relación a su empleo en temas de seguridad, tanto en armamentística como por los agentes del orden. Un tema que tiene ahora mismo un nuevo punto de interés, al reavivarse la polémica en Amazon por la venta de software de reconocimiento facial a la policía. Esta decisión le valía hace unos meses el rechazo no solo de los propios trabajadores de la empresa, sino también de organismos como la ACLU, la unión de libertades civiles de Estados Unidos; y ahora, un grupo de trabajadores plantea enviarle sus comentarios al equipo directivo, aprovechando uno de los dos encuentros anuales en los que se les da voz a los empleados. Además, claro está, del empleo de IA en armamentística, un asunto que ha centrado el foco de distintas organizaciones.

Este tipo de conversaciones puede parecer lejos de las decisiones diarias que se deben tomar en una organización en relación al uso de herramientas innovadoras. Sin embargo, son parte de la esencia misma de su uso. Puede que no haya que pensar si vamos a vender tecnología de reconocimiento facial a un cuerpo de seguridad, o si usaremos los datos con finalidades maliciosas. Pero al decidir emplear estos elementos, la empresa se hace responsable; y el camino hacia los buenos o malos usos de la tecnología se transita al decidir —o no— añadir un tinte ético a esa responsabilidad. 



Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios