¿Cómo evaluar la experiencia de personas mayores en servicios digitales masivos?
La valoración de cómo las personas mayores viven los servicios digitales masivos exige un abordaje amplio que contemple dimensiones técnicas, humanas y éticas. A medida que aumenta el número de adultos mayores, resulta indispensable concebir, evaluar y optimizar plataformas de banca, salud, comercio, transporte y administración pública para que continúen siendo seguras, relevantes y sencillas de utilizar por quienes enfrentan diversas limitaciones propias del envejecimiento.
Por qué es urgente medir esta experiencia
- Demografía: según Naciones Unidas, la proporción de personas de 60 años o más aumentará notablemente durante las próximas décadas, por lo que los servicios masivos deben responder a ese segmento.
- Impacto social: exclusión digital genera barreras al acceso a prestaciones, salud y derechos.
- Riesgos financieros y de seguridad: errores o confusiones en transacciones pueden traducirse en pérdidas económicas o exposición a fraudes.
Componentes clave de la evaluación
- Accesibilidad técnica: observancia de las pautas de accesibilidad web, ajustes de contraste, ampliación tipográfica, uso adecuado de etiquetas semánticas y compatibilidad con herramientas de asistencia.
- Usabilidad: sencillez para llevar a cabo acciones esenciales como crear una cuenta, acceder, efectuar pagos o pedir una cita.
- Comprensibilidad: empleo de un lenguaje directo, mensajes de error orientativos y ausencia de tecnicismos, además de instrucciones claramente delineadas.
- Sostenibilidad de uso: provisión de soporte, capacitación y ayudas contextuales que faciliten la continuidad en la utilización del servicio.
- Seguridad percibida y confianza: sensación de resguardo de la privacidad y de protección ante posibles fraudes.
Métricas cuantitativas recomendadas
- Tasa de éxito de tareas: porcentaje de usuarios mayores que completan una tarea sin asistencia.
- Tiempo medio por tarea: tiempo que tarda un usuario en completar tareas críticas; útil para detectar fricciones.
- Tasa de abandono: porcentaje que inicia pero no finaliza un proceso (por ejemplo, pago o registro).
- Errores por tarea: número de errores recurrentes (clics en lugar equivocado, campos mal completados).
- Índice de satisfacción: puntuaciones post-tarea o post-sesión (escala de 1 a 5 o similar).
- Uso de ayuda: frecuencia con la que las personas mayores recurren a ayuda telefónica, chat o tutoriales.
Métodos cualitativos imprescindibles
- Pruebas con usuarios representativos: sesiones guiadas en las que adultos mayores de diversos perfiles llevan a cabo tareas auténticas, dando prioridad tanto a la observación directa como a los comentarios expresados en el momento.
- Entrevistas en profundidad: indagar expectativas, inquietudes y situaciones de uso, por ejemplo cuando interactúan con la plataforma con apoyo de familiares.
- Diarios de uso: anotaciones recogidas durante varias semanas que revelan rutinas reales, momentos de mayor actividad y fallos que aparecen con frecuencia.
- Estudios etnográficos: visitas al domicilio para analizar el contexto digital, los dispositivos disponibles y las fuentes habituales de asistencia.
- Grupos focales segmentados: investigar percepciones compartidas, términos que prefieren y obstáculos recurrentes.
Segmentación y criterios de muestreo
- Edad y subgrupos: 60–69, 70–79, 80+. La capacidad funcional varía dentro de cada rango.
- Capacidades funcionales: visión reducida, audición, movilidad de manos, memoria y atención.
- Nivel de alfabetización digital: desde nativos digitales tardíos hasta usuarios mínimos; incluir quienes dependen de intermediarios.
- Contexto socioeconómico: acceso a dispositivos, calidad de internet, soporte familiar.
Diseño de tareas de evaluación
- Definir tareas realistas y relevantes: iniciar sesión, recuperar contraseña, realizar pago, reservar cita médica, consultar historial.
- Incluir escenarios con interrupciones: llamada entrante, desconexión de red, comprobante impreso no disponible.
- Medir desde la primera interacción: tiempo hasta entender la función, no solo la ejecución.
- Permitir asistencia simulada en algunos escenarios para medir cuánto y qué tipo de ayuda requieren.
Accesibilidad y diseño orientado a la edad
- Tipografía y disposición: uso de una fuente clara, tamaños ajustables por la persona usuaria, interlineado amplio y adecuada distancia entre zonas táctiles.
- Contraste y color: paletas con contraste elevado y variantes aptas para daltónicos; se recomienda no basar la comunicación únicamente en el color.
- Navegación simplificada: recorridos breves, alternativas visibles y evitar menús demasiado profundos.
- Lenguaje claro: indicaciones precisas, sin abreviaturas, con ejemplos sencillos y avisos de confirmación explícitos.
- Protecciones ante errores: guardado en segundo plano, avisos previos a acciones sensibles y posibilidad de revertir cambios.
Aspectos éticos y de reclutamiento
- Consentimiento informado: detallar con claridad la finalidad del test, cómo se registrarán los datos y cuáles son los derechos del participante.
- Privacidad: asegurar la anonimización de la información y resguardar cualquier grabación que revele datos personales.
- Compensación y accesibilidad del lugar: cubrir los traslados, adecuar los espacios físicos o virtuales y brindar asistencia técnica previa.
- Representatividad: reducir sesgos evitando reclutar únicamente a usuarios activos e incorporando también a quienes dejaron de utilizar el servicio.
Análisis de resultados y priorización
- Ordenar las fricciones según su impacto y frecuencia: las incidencias que bloquean la ejecución de transacciones reciben atención inmediata, mientras que los detalles de usabilidad con menor efecto se consideran de prioridad intermedia.
- Mapas de recorrido y detección de puntos de dolor: reconocer las fases donde se registran mayores tasas de abandono o momentos de desorientación.
- Planteamiento de soluciones comprobables: elaborar prototipos simples que permitan validar ajustes antes de llevarlos al entorno final.
- Evaluar el impacto de las mejoras: contrastar métricas previas y posteriores empleando cohortes comparables (personas mayores).
Casos prácticos ilustrativos
- Banca digital: un banco de gran alcance detectó que el 40% de los usuarios abandonaba las transferencias por dudas al elegir la cuenta correcta. Al simplificar el formulario, ampliar los campos y ofrecer una confirmación por voz opcional, la tasa de operaciones completadas creció un 25% entre personas mayores y las consultas al centro de ayuda cayeron un 30%.
- Portal de salud: una plataforma de citas médicas notó que quienes superaban los 75 años no concluían el proceso al no comprender las ventanas emergentes. Optaron por un diseño con lenguaje claro y un recorrido lineal; con ello, la confirmación de citas aumentó un 18% en ese grupo.
- Comercio electrónico: una tienda lanzó una «versión para mayores» con botones ampliados y soporte telefónico visible. La conversión en usuarios de 70+ creció, aunque se generó una fuerte dependencia del soporte; para equilibrarlo, incorporaron microvideos de entrenamiento y asistencia por videollamada guiada.
Indicadores de éxito a mediano plazo
- Disminución continua en la tasa de abandono dentro de los procesos esenciales.
- Incremento en la frecuencia de uso sin necesidad de apoyo externo.
- Elevación del nivel de confianza y de la percepción de seguridad.
- Reducción de llamadas al soporte relacionadas con gestiones elementales.
Recomendaciones prácticas para equipos productivos
- Involucrar a personas mayores desde el inicio del diseño y en cada iteración.
- Integrar pruebas de accesibilidad como parte del ciclo de desarrollo continuo.
- Crear métricas desagregadas por edad y capacidad para detectar brechas.
- Formar a equipos de soporte con lenguaje empático y protocolos adaptados.
- Documentar cambios y compartir aprendizajes para replicar soluciones en otros servicios.
Al analizar cómo las personas mayores interactúan con servicios digitales de gran escala se integran datos, observación directa y una mirada social atenta; esta medición no solo destapa fallas técnicas, sino que también pone en evidencia vacíos en diseño, comunicación y apoyo. Ajustes que hacen más sencillo el uso para este grupo suelen repercutir positivamente en toda la comunidad de usuarios y refuerzan la equidad digital, de modo que la evaluación debe mantenerse constante, ser inclusiva y orientarse a soluciones precisas y verificables.
