Salud Mental en el Capitalismo Cognitivo: Análisis Crítico para Estudiantes
Toca para girar · Desliza para navegar
6 tarjetas
Pregunta: ¿Por qué la clasificación algorítmica no es objetiva según el texto?
Respuesta: Porque refleja los prejuicios de quienes la diseñan y está cargada de valoraciones ideológicas, no es neutral.
Pregunta: ¿Qué efecto social tienen las clasificaciones algorítmicas según el contenido?
Respuesta: Perpetúan estereotipos y exclusiones y promueven una manera de ver y explicar el mundo presentada como neutral.
Pregunta: ¿Cómo se describe la actuación de un algoritmo frente al sufrimiento humano?
Respuesta: No escucha el padecimiento; procesa patrones.
Pregunta: ¿Qué problema genera la aplicación masiva de la ingeniería algorítmica en el cuidado?
Respuesta: Robotiza el cuidado, sustituyendo la escucha humana por soluciones algorítmicas que priorizan la optimización sobre la comprensión del sujeto.
Pregunta: ¿Cómo se monetizan los derechos en el contexto de la integración de IA en la salud mental?
Respuesta: El acceso a una escucha humana de calidad se convierte en un lujo, mientras a la mayoría se les ofrecen “emociones de diseño” mediadas por pantallas.
Pregunta: ¿Cuál es el objetivo de la gestión algorítmica de la emoción según el texto?
Respuesta: La 'optimización del ánimo' en lugar de la comprensión del sujeto.