“Sin regulación, es difícil que las grandes empresas actúen éticamente”
“Sin regulación, es difícil que las grandes empresas actúen éticamente” Sandra Matz: "Sin regulación, es difícil que las grandes empresas actúen éticamente" Según la académica de la Escuela de Negocios de Columbia, incluso aplicaciones aparentemente inofensivas pueden acceder a nuestra ubicación, fotos y conversaciones, lo que en la vida real sería tan intrusivo como un acosador siguiendo cada uno de nuestros pasos. intrusivo como un acosador siguiendo cada uno de nuestros pasos. Muriel Alarcón a científica social computacional Sandra Matz creció en una pequeña aldea alemana de unos 500 habitantes, donde conocía a todos por su nombre de pila.
En ese entorno, todo: bían todo de todos: quién salía con quién, cuáles eran los sueños al terminar la escuela e incluso los secretos que deseaban mantener ocultos. "Era asombroso porque podían ofrecer el mejor apoyo y consejo, ya que sabían lo que quería hacer, lo que esperaba lograr. Pero también me pareció muy manipulador", dice Matz, quien considera esa experiencia de vigilancia constante en su pueblo natal una metáfora perfecta torno digital a tual. Según ella, refleja la misma dinámica, con empresas y algoritmos que registran cada paso, men: Lejos de aquella aldea y convertida en profesora «David W. Z nick» en la Escuela de Negocios de Columbia en Nueva York, habla desde el hall del hotel donde pasa unos días en Chile. Está a punto de impartir la charla «Mindmasters: La ciencia basada en datos para descifrar el comportamiento humano» en el Columbia Global Center Santiago.
En su presentación, expondrá su estudio sobre el psychological targeting o "focalización psicológica", un enfoque que acude al análisis de Big Data y métodos experimentales para comprender cómo las características psicológicas de las personas pueden influir en decisiones individuales y colectivas.
Matz estudia cómo estos factores afectan áreas como el bienestar financiero, la satisfacción del consumidor y el rendimiento en equipo, con el propósito de promover deones más éticas y efectivas tanto en empresas como en individuos. "A través de nuestras interacciones con la tecnología, por medio de redes sociales, datos de smartphones, gastos con tarjetas de crédito, otros pueden adquirir un poder similar sobre nosotros, ya sea manipulándonos a nuestras espaldas o ayudándonos a alcanzar nuestras metas", dice.
La investigación de Matz se ha publicado en las principales revistas científicas del mundo, le ha conferido numerosos premios y la ha convertido en una de las voces más críticas sobre el uso de datos personales y su impacto en la libertad y privacidad.
De hecho, en su próximo libro, «Mindmasters», que será lanzado en enero, explora cómo los algoritmos se adentran en los aspectos más íntimos de nuestra psicología, y ofrece herramientas para recuperar el control sobre nuestras vidas. Aun así, Matz subraya que su investigación no busca enriquecer a las empresas, sino generar conocimientos científicos que puedan proteger a las personas. A menudo le preguntan, especialmente en sus charlas, por qué realiza este tipo de estudio, dada la posibilidad de malos usos, como lo reveló el caso de Cambridge Analytica.
Esta empresa británica, conocida por su papel en las elecciones de EE.UU. en 2016, utilizó datos personales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebosonales de millones de usuarios de Facebo. “Sin regulación, es difícil que las grandes empresas actúen éticamente” ok para crear perfiles psicológicos detallados y dirigir campañas políticas altamente personalizadas, lo que generó gran controversia y cuestionamientos éticos.
Matz reconoce ese riesgo. "Pero mi opinión es que las empresas ya lo están haciendo de todos modos". Ella considera que, al investigar cómo las predicciones íntimas revelan la necesidad de regular los datos personales, puede compartir sus hallazgos abiertamente con el público y los legisladores, algo que las empresas suelen evitar. "No creo que detener la investigación académica elimine los malos usos.
Sin ese contrapeso, nadie discutiría lo que es posible, y los responsables de políticas no tendrían las bases para poner límites que prevengan abusos", afirma. "No se trata solo de datos; es la historia de tu vida" --¿ Por qué la gente comparte tanta información en el mundo digital? --Me lo he preguntado muchas veces. Al principio, supuse que la gente simplemente no lo entendía, que estaba tan oculto que las empresas tenían un incentivo para ocultarte el uso real de los datos. Hasta cierto punto, es cierto. No es algo que esté en primer plano. Pero incluso cuando la gente está informada, a la mayoría no le importa lo suficiente.
Si te digo que las empresas recopilan tu ubicación GPS, tus publicaciones en las redes sociales y la actividad de la tarjeta de crédito, mucha gente no lo ve como algo suficientemente íntimo, Cada punto de datos por sí solo, no parece intrusivo. Pero juntando todas esas piezas se crea una imagen de la persona detrás de los datos.
No se trata solo de un dato; es la historia de tu vida, tus rutinas e incluso tu psicología. --¿ Cómo mostraría, en forma metafórica, lo íntimos que pueden ser nuestros datos? --La mayoría no piensa que su smartphone sea sensible porque simplemente está ahí, ayudándonos. Pero es como tener a alguien mirando por encima de tu hombro 24/7. Velos lugares adonde vas; escucha tus conversaciones a través del micrófono, accede a tus fotos. A menudo pensamos que la intrusión tiene que ver con las redes sociales, pero con un smartphone, incluso una aplicación del clima podría solicitar acceso a tu galería, micrófono y GPS. Eso es increíblemente intrusivo. La mayoría ni siquiera lo lee. En el mundo real, sería como si alguien caminara detrás de ti, capturando todolo que haces. Nos indignaría.
Es como un acosador que podría ir a la cárcel. --Ud, estudia las actitudes virtuales, pero ¿ cuán "reales" son? --Las redes sociales a menudo muestran un yo idealizado: el "tú" de vacaciones, el que está súper feliz o el que come tostadas con palta. Si los datos reflejan quién quiere ser la gente, es posible que no se capture su psicología real. Sin embargo, para el marketing, saber quién quieres ser es exactamente lo que se necesita para cambiar tu comportamiento, incluso más que quién eres en realidad.
Y aunque algunos datos pueden ser autoidealizados, muchos no lo son: son ser autoidealizados, muchos no lo son: son Si los datos reflejan quién quiere ser la gente, es posible que no se capture su psicología real.
Pero para el marketing, saber quién quieres ser es exactamente lo que necesita". Me gusta una cita del historiador de la tecnología Melvin Kranzberg: «La tecnología no es ni buena ni mala, pero tampoco es neutral»". lo que los psicólogos llaman "residuos conductuales", como el uso de tarjetas de crédito olas ubicaciones GPS, que no están destinados a ser declaraciones de identidad, pero que aún así revelan mucho. --+¿ Puede la gente volverse más consciente sobre sus hábitos virtuales? --Me he vuelto más pesimista. Al principio, pensé que educar a las personas sobre los datos las convertiría en mejores administradores de su información. No creo que sea así. La mayoría de las personas no tienen el conocimiento, e incluso quienes lo tienen, tendrían que trabajar a tiempo completo para proteger sus datos en todas las plataformas y servicios.
Tendrías que dejar de hacer cualquier otra cosa, olvidarte de la familia, olvidarte del trabajo que amas, para ser responsable de administrar tus datos. "Que las empresas manejen los datos de manera responsable" --Ante regulaciones actuales centradas en la transparencia y el control, como el Reglamento de Protección de Datos de la Unión Europea, ud. ha dicho que son un buen punto de partida, pero que administrar los datos de manera responsable se siente más como una carga que como un derecho. ¿Por qué? --Porque es difícil de manejar. Lo comparo con ser el capitán de un barco. Suena genial, pero solo si navegas en aguas tranquilas, donde estás seguro y respaldado. Pero nuestro mundo digital es como navegar en una tormenta, lleno de riesgos y sin ayuda. Por lo tanto, si queremos que el control funcione para la gente, también tenemos que domar el mar; ahí es donde entra en juego la regulación. Tenemos que evitar los abusos y dara la gente una tripulación competente que ayude a tomar decisiones inteligentes en materia de datos. Las cooperativas de datos o los fideicomisos de datos podrían ser la respuesta, donde la gente reúne sus datos y los gestiona de forma colectiva. Por ejemplo, las mujeres embarazadas podrían crear una cooperativa de datos, combinando datos genéticos y ambientales para evaluar los factores de riesgo sin que las empresas farmacéuticas sean dueñas de sus datos. Una cooperativa podría contratar a expertos para gestionar los datos de forma responsable, de forma similar a los asesores financieros en el sector bancario.
Es como ser un capitán con un mar en calma y una tripulación fiable que te ayuda a navegar incluso cuando el mar no está en calma. --¿ Se puede hacer? --No estamos preparados para hacerlo nosotros mismos. Por eso la regulación que simplemente intenta darnos control no es suficiente. Lo que realmente necesitamos es un ecosistema que sea mucho más amigable con nosotros. Cambiar la configuración predeterminada es un ejemplo. Ahora mismo, tienes que optar por no participar en el seguimiento de datos, pero nadie lo hace. Nadie tiene tiempo para entrar y ver qué datos están rastreando, pensando: "Déjenme optar por no participar". Ni siquiera yo lo hago. Prefiero cenar con mi hijo y leerle un cuento antes de dormir. Trato de ser un pocuento antes de dormir. Trato de ser un pocuento antes de dormir. Trato de ser un poco más consciente, pero no hay posibilidad. Así que tenemos que hacer que sea totalmente fácil para la gente.
La mayoría de la gente se quedará con lo que sea que esté por defecto. --¿ Cómo aconseja a las empresas que utilicen la "focalización psicológica" de forma responsable para mejorar tanto sus beneficios como el bienestar de los consumidores? ¿ Cuáles son los límites entre la privacidad y el interés público? --Siempre que trabajo con empresas, en la medida de lo posible, involucro al consumidor. Actualmente, las empresas suelen recopilar datos, hacer predicciones e influir en el comportamiento sin que el consumidor sepa lo que sucede. Esto supone un riesgo reputacional: si se hace público, podría haber una reacción negativa. Además, la segmentación psicológica no es infalible; si ifico a alguien como extrovertido pero es introvertido, eso frustra al consumidor y afecta a la empresa. Idealmente, debería haber una comunicación bidireccional. Por ejemplo, en el sector hotelero, trabajé con un cliente para mejorar la experiencia del viajero en función de su perfil, permitiéndole además dar retroalimentación. Esto da autonomía al consumidor. También es esencial que las empresas manejen los datos de manera responsable. Algunas solo recolectan la mayor cantidad posible, esperando poder usarlos después o venderlos, lo cual es riesgoso por posibles filtraciones. Ofrecer servicios sin almacenar datos, reduceriesgos y atrae a consumidores preocupados por su privacidad.
La última publicidad de Apple gira en torno a la privacidad del consumidor, centrándose en la protección de datos, lo que reduce el riesgo reputacional y resulta atractivo para los consumidores. res. res. res. --Si al igual que la IA, los datos son solo una herramienta que depende de quién los use, ¿cómo podemos asegurarnos de que se usen apropiadamente? --Me gusta una cita del historiador de la tecnología Melvin Kranzberg: "La tecnología no es ni buena ni mala, pero tampoco es neutral". La clave de la "no neutralidad" es esencial. Significa que radica en el liderazgo. Sin regulación, es difícil que grandes empresas como Facebook actúen éticamente, ya que competidores podrían hacerlo de forma poco ética y ganar. Sin un sistema confiable y regulado, es difícil para las empresas equilibrar responsabilidades. También se necesitan educación y capacitación: las ciencias duras están comenzando a incluir debates éticos en sus planes de estudio. Otro factor es el liderazgo. Establecer valores y pautas claras es crucial.
Publiqué un documento con pautas, casi como un mecanismo de autocompromiso, en el que las empresas se comprometen a "no recopilar datos sin informar a la gente". ¿Puedo hacer cumplir esto? No, pero hablar de estos valores ayuda a crear un entendimiento compartido. Sin valores claros, es fácil priorizar las ganancias. Las generaciones más jóvenes lo exigen y las personas con talento no quieren trabajar para empresas que hacen un uso indebido de los datos..