Enfermería: Cuidados Humanizados, 15(1)

enero - junio 2026

10.22235/ech.v15i1.5027

Editorial

 

La inteligencia artificial en los cuidados: del asistente digital al compañero ético

Artificial Intelligence in Care: From Digital Assistant to Ethical Companion

A inteligência artificial nos cuidados: do assistente digital ao companheiro ético

 

Manuel Pardo Ríos1 ORCID 0000-0001-7965-0134

Carmen Amalia López López2 ORCID 0000-0002-7597-979X

María Eva Pérez Martínez3 ORCID 0009-0000-3924-4262

 

1 Grupo de Investigación de Nuevas Tecnologías para la Salud; Universidad Católica de Murcia, España

2 Grupo de Investigación de Nuevas Tecnologías para la Salud; Universidad Católica de Murcia, España, [email protected]

3 Grupo de Investigación de Nuevas Tecnologías para la Salud; Universidad Católica de Murcia, España

 

 

Introducción: un futuro que ya habita entre nosotros

 

 

Durante décadas, el imaginario colectivo ha proyectado el futuro como un escenario poblado por robots humanoides: seres metálicos convivientes con los humanos, que ejecutan con precisión las tareas de la vida cotidiana. La ciencia ficción nos proponía, en la literatura y el cine, algunos sistemas de inteligencia artificial que observábamos con asombro y cierta incredulidad: desde HAL 9000, que controlaba una nave en 2001: Odisea del espacio, hasta R2D2, capaz de comunicarse en millones de lenguas y realizar cálculos imposibles en La guerra de las galaxias. Con el paso del tiempo, el género incorporó además dilemas éticos y morales, como los que planteaba Yo, robot, donde la inteligencia artificial no solo ejecutaba órdenes, sino también comenzaba a deliberar sobre el bien y el mal.

Aquellas visiones, a medio camino entre la utopía y la advertencia, situaban la inteligencia artificial (IA) en un futuro casi inalcanzable. Sin embargo, mientras esperábamos robots con forma humana, la IA iba avanzaba discretamente por otros caminos: en los algoritmos de búsqueda, en los teléfonos inteligentes y en las plataformas que modelan nuestras decisiones cotidianas. Todo parecía suceder sin ruido hasta que OpenAI lanzó ChatGPT y la inteligencia artificial generativa (IAG) se democratizó, marcando un punto de inflexión que alteró la percepción colectiva del conocimiento, la creatividad y el trabajo intelectual. Con este avance llegó algo realmente disruptivo: por primera vez podíamos hablar con la IAG como hablamos con otra persona, usando un lenguaje natural y cercano. Esta nueva forma de comunicarnos abrió una relación completamente distinta entre humanos y tecnología, más directa, más accesible y, sobre todo, más humana.

Hasta hace poco, las máquinas imitaban o reemplazaban funciones físicas del cuerpo humano; hoy, comienzan a replicar, o al menos aproximarse, a procesos cognitivos que considerábamos intransferibles: imaginar, crear y decidir. Esta expansión de sus capacidades provoca asombro, entusiasmo y, al mismo tiempo, vértigo. Por ello, los científicos y profesionales esperamos que esta curva de fascinación inicial alcance pronto una meseta de realismo, donde el entusiasmo o “fascinación tecnológica” dé paso a una etapa de madurez, evaluación y aplicación responsable.

Según el Hype Cycle de Gartner, (1) la IA se encuentra en un punto de transición entre la euforia y la consolidación. Es la fase en que las promesas comienzan a medirse con los hechos y los proyectos deben demostrar su utilidad, seguridad y sostenibilidad. La velocidad de adopción es tan vertiginosa que los marcos normativos, éticos y educativos apenas logran seguir el ritmo. En este contexto, la Recomendación sobre la ética de la inteligencia artificial de la UNESCO (2) resulta una brújula esencial. Sus principios, transparencia, justicia, no discriminación, supervisión humana y respeto a la dignidad, son imprescindibles para guiar la incorporación responsable de la IA en los sistemas sanitarios y educativos, donde un sesgo, una omisión o un error pueden tener consecuencias directas sobre la vida y la confianza de las personas.

A este marco se suma el nuevo Reglamento Europeo de Inteligencia Artificial (IA Act), que introduce obligaciones concretas para sistemas que operan en contextos de salud, bienestar y atención social. (3) Considerados de “alto riesgo”, estos sistemas deben ser auditables, trazables, entrenados con datos de calidad, sujetos a supervisiones humanas y explicables. La supervisión humana no es un detalle técnico: constituye un principio ético que protege el corazón del cuidado.

 

 

La IA como asistente: liberar tiempo para cuidar

 

 

En el ámbito sanitario, la inteligencia artificial debe entenderse no como un sustituto, sino como un asistente que amplía las capacidades humanas. Su función es liberar tiempo para cuidar, delegando tareas rutinarias y administrativas como la clasificación de datos, la transcripción de informes o la generación de alertas, y devolviendo a los profesionales el espacio que el sistema les ha arrebatado: la mirada, la escucha, la presencia junto al paciente. (4) La verdadera innovación no consiste en automatizar el acto de cuidar, sino en humanizarlo más profundamente gracias a la automatización inteligente de aquello que no exige juicio clínico ni vínculo emocional. En el ámbito del cuidado, entendido en sentido amplio como cuidarnos a nosotros mismos, cuidar a quienes queremos y sostener la vida en comunidad, la IA abre un nuevo escenario en el que tecnología y humanidad conviven en una interacción continua.

En este punto cobra especial relevancia el enfoque Human in the Loop (HITL), que se ha convertido en un pilar esencial para sostener prácticas de cuidado éticas en un entorno cada vez más automatizado. Este modelo afirma que ninguna decisión que afecte a la vida, la salud o la autonomía de una persona debe recaer exclusivamente en un algoritmo, porque la interpretación contextual, la empatía y la deliberación moral son cualidades irrenunciablemente humanas.

Esta necesidad de supervisión se vuelve aún más evidente si consideramos que cada paciente es hoy una fuente inagotable de información: dispositivos portátiles o dispositivos wearables que registran el pulso, el sueño o la actividad física generan flujos continuos y extensos de datos que deben ser interpretados con criterio clínico. Esta abundancia informativa, lejos de simplificar la práctica sanitaria, exige sistemas fiables y profesionales capaces de discernir qué es relevante, qué es ruido y qué podría inducir a decisiones erróneas si se analiza sin contexto.

Historias clínicas electrónicas que acumulan miles de variables y sensores domésticos que informan en tiempo real del entorno y la conducta completan este ecosistema digital. La integración de todo ese caudal de datos supera la capacidad humana de interpretación, análisis e interconexión. En este contexto, la IA, especialmente los modelos de aprendizaje profundo, permite transformar información dispersa en conocimiento clínico, anticipando descompensaciones o eventos adversos antes incluso de que aparezcan los primeros signos visibles. Sin embargo, esta promesa solo será virtuosa si se acompaña de una alfabetización digital profunda de los profesionales y de una cultura ética que garantice que el dato sigue siendo del paciente, no del algoritmo. (5, 6)

El desafío actual no es únicamente técnico, sino también cultural. La IA nos obliga a repensar qué entendemos por conocimiento y cuál es el papel del ser humano en un entorno donde la información se produce a velocidades difíciles de asimilar. Los sistemas basados en machine learning o sistemas de aprendizaje automático no razonan ni comprenden: responden con la opción estadísticamente más probable, no necesariamente con la más cierta. (7) Esta naturaleza probabilística exige filtros de validación clínica y responsabilidad compartida, especialmente en ámbitos donde una decisión puede definir el destino de una persona.

 

 

Una nueva revolución cognitiva y ética

 

 

En el terreno educativo, la expansión de la IA generativa (IAG) ha sido tan rápida que sus implicaciones aún no se comprenden del todo. Estudiantes y residentes la utilizan de manera natural, a menudo sin discernir entre ayuda y sustitución. El uso creciente de la IAG en actividades cotidianas está generando un debate profundo sobre su impacto cognitivo en los individuos. Estudios recientes del MIT advierten que la dependencia excesiva de modelos generativos puede reducir el esfuerzo cognitivo, afectar la retención del conocimiento y alterar la forma en que pensamos y resolvemos problemas. (8) Por otro lado, una revisión y metaanálisis publicada en Nature Human Behaviour encontró que, entre más de 400.000 adultos mayores, el uso habitual de tecnologías digitales estaba asociado con un menor riesgo de deterioro cognitivo y con tasas más bajas de declive cognitivo. (9)

Esta evidencia sostiene dos perspectivas opuestas: la “demencia digital”, que advierte que una dependencia excesiva puede deteriorar habilidades cognitivas, y la “reserva tecnológica”, que plantea que un uso activo y crítico de la tecnología puede fortalecer el razonamiento y la flexibilidad mental. Ambas visiones señalan la importancia de un equilibrio en el que la IA acompañe al pensamiento humano sin sustituirlo. Desde esta perspectiva, quizá la cuestión no sea restringir su uso, sino enseñarla tarde: permitir que los futuros profesionales desarrollen primero su inteligencia natural como la curiosidad, el juicio y la empatía antes de incorporar la inteligencia artificial como apoyo. Solo quien sabe pensar puede permitirse automatizar.

La inteligencia artificial representa una nueva revolución, pero de naturaleza distinta a las anteriores. Si las revoluciones industriales transformaron la energía y la materia, esta altera la cognición y la moral. El conocimiento deja de ser exclusivamente humano y se comparte con sistemas que aprenden de nosotros. Nuestra responsabilidad consiste en orientar ese aprendizaje hacia un modelo más justo, social y humano, donde la tecnología amplifique la compasión y no la reemplace.

 

 

Individualizar el cuidado y reconocer lo invisible

 

 

La IA puede ser una aliada decisiva en la individualización de la atención sanitaria; puede ser que sea la gran solución para los diagnósticos y tratamientos con precisión individual. En el diagnóstico de enfermedades raras o la detección de patrones sutiles, puede convertirse en un guardián silencioso que advierte lo que la mirada humana no alcanza a ver. (10) Como señaló Sir William Osler, del Johns Hopkins Hospital, a comienzos del siglo XX: “un paciente solo puede tener las enfermedades que su médico conoce”; (11) seguramente podamos resignificar el equilibrio conocimiento-experiencia y poner un nuevo agente en la ecuación que sea el asistente de IA. En este contexto, el horizonte de conocimiento puede ofrecer una segunda oportunidad para afinar el “acierto diagnóstico”.

En esta misma línea, comienzan a consolidarse tecnologías que acompañan tanto desde el análisis de datos como desde la interacción directa con las personas. Los asistentes y agentes virtuales, diseñados para orientar, educar, recordar pautas o apoyar la toma de decisiones cotidianas en salud, se están incorporando progresivamente como herramientas complementarias en los procesos de cuidado. La evidencia científica reciente muestra que estas tecnologías pueden mejorar la adherencia terapéutica, reducir síntomas de ansiedad, favorecer el autocuidado y ofrecer apoyo continuado en personas con enfermedades crónicas, con un impacto positivo sobre resultados en salud y sobre la experiencia de quien recibe cuidados. (12)

Esta integración, sin embargo, no convierte a la tecnología en el centro del cuidado. La IA debe integrarse como un miembro del equipo asistencial, pero nunca como su líder. Su papel es proponer, no decidir. La deliberación ética, la empatía y la responsabilidad moral siguen siendo atributos exclusivamente humanos. Ya se observan casos en los que pacientes consultan diagnósticos sugeridos por aplicaciones, generando tensiones y desconfianza en la relación terapéutica. (13) El equilibrio entre autonomía tecnológica y juicio clínico será una de las competencias más importantes de la próxima década.

Por ello, antes de implementar cualquier sistema, ya sea un algoritmo, un asistente virtual o un agente conversacional, debe garantizarse una validación rigurosa de su precisión, trazabilidad y sesgos. La regulación debe evolucionar al mismo ritmo que la innovación, sin caer en la parálisis del miedo ni en la euforia sin evidencia. La UNESCO y la OMS coinciden en la necesidad de avanzar hacia una gobernanza global de la IA que garantice equidad, transparencia y justicia social. (2) La pregunta no es si la IA será parte del futuro del cuidado, sino qué tipo de humanidad queremos que configure ese futuro.

 

 

Conclusión

 

 

La inteligencia artificial no es el final del humanismo, sino su nueva frontera. Nos obliga a decidir qué queremos conservar como esencialmente humano. Si la usamos con sabiduría, podrá liberar tiempo para lo más importante: mirar, escuchar, acompañar. Pero también nos recuerda que ningún algoritmo puede asumir la carga ética de una decisión que afecta a una vida. Por eso, en esta revolución tecnológica, el verdadero desafío no reside en lo que la IA es capaz de hacer, sino en cómo elegimos integrarla. Los avances normativos, como el IA Act, y los marcos éticos internacionales nos muestran que el futuro del cuidado no dependerá únicamente de la innovación técnica, sino de nuestra capacidad para gobernarla con justicia, equidad y respeto.

El progreso tecnológico no será una amenaza si conseguimos que cada avance amplifique, y no sustituya, a los profesionales y la dignidad del cuidado. Hagamos una integración inteligente de la inteligencia artificial.

 

 

Referencias

1. Gartner Research.  Hype Cycle for Artificial Intelligence, 2024. (Internet). Gartner; 2024. Disponible en: https://www.gartner.com/en/documents/5505695

2. UNESCO. Recomendación sobre la Ética de la Inteligencia Artificial (Internet). París: UNESCO; 2021. Disponible en: https://www.unesco.org/es/artificial-intelligence

3. European Union. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union. 2024;L1689:1-157. Disponible en:  https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689

4. Topol EJ. Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. New York: Basic Books; 2019.

5. Esteva A, Chou K, Yeung S, Naik N, Madani A, Mottaghi A, et al. Deep learning-enabled medical computer vision. NPJ Digital Medicine. 2021;4:5. doi: 10.1038/s41746-020-00376-2

6. Castaño Castaño S. La inteligencia artificial en Salud Pública: oportunidades, retos éticos y perspectivas futuras. Rev Esp Salud Publica. 2025;99:e202503017. PMID: 40165772; PMCID: PMC12128575.

7. Amann J, Blasimme A, Vayena E, Frey D, Madai VI, Precise4Q consortium. Explainability for artificial intelligence in healthcare: a multidisciplinary perspective. BMC Med Inform Decis Mak. 2020;20(1):310. doi: 10.1186/s12911-020-01332-6

8. Kosmyna N, Hauptmann E, Yuan YT, Situ J, Liao XH, Beresnitzky AV, et al. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. arXiv preprint 2506.08872. Disponible en: https://arxiv.org/abs/2506.08872

9. Benge JF, Scullin MK. A meta-analysis of technology use and cognitive aging. Nat Hum Behav. 2025;9(7):1405-1419. doi: 10.1038/s41562-025-02159-9

10. Beam AL, Kohane IS. Big data and machine learning in health care. JAMA. 2018;319(13):1317–1318. doi: 10.1001/jama.2017.18391

11. Bean WB. Sir William Osler: Aphorisms from His Bedside Teachings and Writings. New York: Henry Schuman; 1950.

12. Keivanlou N, Babaieasl F, Jamali J, Baghyari S, Dalir Z, Davoudi N. The effect of education using the interactive avatar application on self-care and the ability to identify and respond to the symptoms of heart attack in patients with acute coronary syndrome: a randomized clinical trial. BMC Health Serv Res. 2025:572. doi: 10.1186/s12913-025-12756-z

13. Rajkomar A, Dean J, Kohane I. Machine learning in medicine. N Engl J Med. 2019;380(14):1347-1358. doi: 10.1056/NEJMra1814259

 

Cómo citar: Pardo Ríos M, López López CA, Pérez Martínez ME. La inteligencia artificial en los cuidados: del asistente digital al compañero ético. Enfermería: Cuidados Humanizados. 2026;15(1): e5027. doi: 10.22235/ech.v15i1.5027

 

Contribución de los autores (Taxonomía CRediT): 1. Conceptualización; 2. Curación de datos; 3.  Análisis formal; 4. Adquisición de fondos; 5. Investigación; 6. Metodología; 7. Administración de proyecto; 8. Recursos; 9. Software; 10. Supervisión; 11. Validación; 12. Visualización; 13. Redacción: borrador original; 14. Redacción: revisión y edición.

M. P. R. ha contribuido en 1, 5, 13, 14; C. A. L. L. en 1, 5, 13, 14; M. E. P. M. en 1, 5, 13, 14.

 

Editora científica responsable: Dra. Natalie Figueredo.

 

Enfermería: Cuidados Humanizados, 15 (1)

January - June 2026

10.22235/ech.v15i1.5027

Editorial

 

 

Artificial Intelligence in Care: From Digital Assistant to Ethical Companion

La inteligencia artificial en los cuidados: del asistente digital al compañero ético

A inteligência artificial nos cuidados: do assistente digital ao companheiro ético

 

Manuel Pardo Ríos1 ORCID 0000-0001-7965-0134

Carmen Amalia López López2 ORCID 0000-0002-7597-979X

María Eva Pérez Martínez3 ORCID 0009-0000-3924-4262

 

1 Grupo de Investigación de Nuevas Tecnologías para la Salud; Universidad Católica de Murcia, Spain

2 Grupo de Investigación de Nuevas Tecnologías para la Salud; Universidad Católica de Murcia, Spain, [email protected]

3 Grupo de Investigación de Nuevas Tecnologías para la Salud; Universidad Católica de Murcia, Spain

 

 

Introduction: A Future That Already Lives Among Us

 

 

For decades, the collective imagination has projected the future as a scenario populated by humanoid robots: metallic beings coexisting with humans, executing the tasks of daily life with precision. Science fiction, through literature and cinema, presented us with artificial intelligence systems that we observed with amazement and a certain disbelief: from HAL 9000, controlling a spacecraft in 2001: A Space Odyssey, to R2D2, capable of communicating in millions of languages and performing impossible calculations in Star Wars. Over time, the genre also incorporated ethical and moral dilemmas, such as those posed in I, Robot, where artificial intelligence not only executed orders but also began to deliberate about good and evil.

These visions, halfway between utopia and warning, placed artificial intelligence (AI) in a nearly unattainable future. However, while we waited for human-shaped robots, AI was quietly advancing along other paths: search algorithms, smartphones, and platforms that shape our everyday decisions. Everything seemed to happen without noise until OpenAI released ChatGPT and generative artificial intelligence (GAI) became democratized, marking a turning point that altered the collective perception of knowledge, creativity, and intellectual work. With this advance came something truly disruptive: for the first time, we could talk to GAI as we talk to another person, using natural and accessible language. This new way of communicating opened a completely different relationship between humans and technology—more direct, more accessible, and, above all, more human.

Until recently, machines imitated or replaced physical functions of the human body; today, they are beginning to replicate—or at least approximate—cognitive processes we once considered non-transferable: imagining, creating, and deciding. This expansion of capabilities provokes amazement and enthusiasm, but also vertigo. For this reason, scientists and professionals hope that this initial curve of fascination will soon reach a plateau of realism, where technological enthusiasm gives way to a phase of maturity, evaluation, and responsible application.

According to Gartner’s Hype Cycle, (1) AI is currently at a transition point between euphoria and consolidation. This is the phase in which promises begin to be measured against facts, and projects must demonstrate their usefulness, safety, and sustainability. The speed of adoption is so vertiginous that regulatory, ethical, and educational frameworks are barely able to keep pace. In this context, UNESCO’s Recommendation on the Ethics of Artificial Intelligence (2) serves as an essential compass. Its principles—transparency, fairness, non-discrimination, human oversight, and respect for dignity—are indispensable to guide the responsible incorporation of AI into healthcare and educational systems, where a bias, an omission, or an error can have direct consequences for people’s lives and trust.

This framework is reinforced by the new European Artificial Intelligence Act (AI Act), which introduces concrete obligations for systems operating in health, well-being, and social care contexts. (3) Considered “high-risk,” these systems must be auditable, traceable, trained with high-quality data, subject to human oversight, and explainable. Human supervision is not a technical detail: it constitutes an ethical principle that protects the very heart of care.

 

 

AI as an Assistant: Freeing Time to Care

 

 

In healthcare, artificial intelligence should be understood not as a substitute, but as an assistant that expands human capabilities. Its role is to free up time for care by delegating routine and administrative tasks—such as data classification, report transcription, or alert generation—and returning to professionals the space that the system has taken away: gaze, listening, and presence alongside the patient. (4) True innovation does not lie in automating the act of caring, but in deepening its human dimension through the intelligent automation of tasks that do not require clinical judgment or emotional bonding. In care—understood broadly as caring for ourselves, caring for those we love, and sustaining life in community—AI opens a new scenario in which technology and humanity coexist in continuous interaction.

At this point, the Human-in-the-Loop (HITL) approach becomes especially relevant and has become a cornerstone for sustaining ethical care practices in an increasingly automated environment. This model asserts that no decision affecting a person’s life, health, or autonomy should rest exclusively on an algorithm, because contextual interpretation, empathy, and moral deliberation are irreducibly human qualities.

This need for oversight becomes even more evident when we consider that each patient is now an inexhaustible source of information: wearable devices that record heart rate, sleep, or physical activity generate continuous and extensive data flows that must be interpreted with clinical judgment. This abundance of information, far from simplifying healthcare practice, demands reliable systems and professionals capable of discerning what is relevant, what is noise, and what could lead to erroneous decisions if analyzed without context.

Electronic health records that accumulate thousands of variables and home sensors that provide real-time information about environment and behavior complete this digital ecosystem. Integrating all this data exceeds human capacity for interpretation, analysis, and interconnection. In this context, AI—especially deep learning models—makes it possible to transform dispersed information into clinical knowledge, anticipating decompensations or adverse events even before the first visible signs appear. However, this promise will only be virtuous if accompanied by deep digital literacy among professionals and by an ethical culture that ensures data continues to belong to the patient, not to the algorithm. (5, 6)

The current challenge is not only technical, but also cultural. AI forces us to rethink what we mean by knowledge and what role human beings play in an environment where information is produced at difficult-to-assimilate speeds. Machine learning systems do not reason or understand: they respond with the statistically most probable option, not necessarily the most accurate. (7) This probabilistic nature requires clinical validation filters and shared responsibility, especially in fields where a decision may define a person’s destiny.

 

 

A New Cognitive and Ethical Revolution

 

 

In education, the expansion of generative artificial intelligence has been so rapid that its implications are not yet fully understood. Students and residents use it naturally, often without distinguishing between assistance and substitution. The growing use of GAI in everyday activities is generating a deep debate about its cognitive impact on individuals. Recent studies from MIT warn that excessive dependence on generative models can reduce cognitive effort, affect knowledge retention, and alter the way we think and solve problems. (8) Conversely, a review and meta-analysis published in Nature Human Behaviour found that among more than 400,000 older adults, habitual use of digital technologies was associated with a lower risk of cognitive impairment and lower rates of cognitive decline. (9)

This evidence supports two opposing perspectives: “digital dementia,” which warns that excessive dependence may erode cognitive skills, and “technological reserve,” which suggests that active and critical use of technology can strengthen reasoning and mental flexibility. Both views highlight the importance of balance, in which AI accompanies human thinking without replacing it. From this perspective, perhaps the issue is not restricting its use, but teaching it later: allowing future professionals to first develop their natural intelligence—curiosity, judgment, and empathy—before incorporating artificial intelligence as support. Only those who know how to think can afford to automate.

Artificial intelligence represents a new revolution, but of a different nature than previous ones. If industrial revolutions transformed energy and matter, this one alters cognition and morality. Knowledge ceases to be exclusively human and is shared with systems that learn from us. Our responsibility is to orient that learning toward a more just, social, and humane model, where technology amplifies compassion rather than replacing it.

 

 

Individualizing Care and Recognizing the Invisible

 

 

AI can be a decisive ally in individualizing healthcare; it may well be the great solution for precision diagnosis and treatment. In the diagnosis of rare diseases or the detection of subtle patterns, it can become a silent guardian that warns of what the human eye cannot see. (10) As Sir William Osler of Johns Hopkins Hospital stated at the beginning of the 20th century: “A patient can only have the diseases that his physician knows.” (11) Today, we may need to redefine the balance between knowledge and experience and introduce a new agent into the equation: the AI assistant. In this context, the horizon of knowledge may offer a second opportunity to refine diagnostic accuracy.

Along these lines, technologies are beginning to consolidate that accompany care both through data analysis and through direct interaction with people. Virtual assistants and agents designed to guide, educate, remind, or support everyday health decision-making are progressively being incorporated as complementary tools in care processes. Recent scientific evidence shows that these technologies can improve therapeutic adherence, reduce anxiety symptoms, promote self-care, and offer continuous support to people with chronic diseases, with a positive impact on health outcomes and on the care experience. (12)

This integration, however, does not place technology at the center of care. AI must be integrated as a member of the care team, but never as its leader. Its role is to propose, not to decide. Ethical deliberation, empathy, and moral responsibility remain exclusively human attributes. Cases are already emerging in which patients consult diagnoses suggested by applications, generating tensions and distrust in the therapeutic relationship. (13) The balance between technological autonomy and clinical judgment will be one of the most important competencies of the coming decade.

Therefore, before implementing any system—whether an algorithm, a virtual assistant, or a conversational agent—rigorous validation of accuracy, traceability, and bias must be ensured. Regulation must evolve at the same pace as innovation, without falling into paralysis driven by fear or into evidence-free euphoria. UNESCO and the World Health Organization agree on the need to move toward global AI governance that guarantees equity, transparency, and social justice. The question is not whether AI will be part of the future of care, but what kind of humanity we want to shape that future.

 

 

Conclusion

 

 

Artificial intelligence is not the end of humanism, but its new frontier. It forces us to decide what we want to preserve as essentially human. If used wisely, it can free time for what matters most: looking, listening, and accompanying. But it also reminds us that no algorithm can assume the ethical burden of a decision that affects a life. Therefore, in this technological revolution, the real challenge does not lie in what AI is capable of doing, but in how we choose to integrate it. Regulatory advances such as the AI Act and international ethical frameworks show that the future of care will depend not only on technical innovation, but on our ability to govern it with justice, equity, and respect.

Technological progress will not be a threat if we succeed in ensuring that each advance amplifies—rather than replaces—professionals and the dignity of care. Let us pursue an intelligent integration of artificial intelligence.

 

 

References

1. Gartner Research.  Hype Cycle for Artificial Intelligence, 2024. (Internet). Gartner; 2024. Available from: https://www.gartner.com/en/documents/5505695

2. UNESCO. Recomendación sobre la Ética de la Inteligencia Artificial (Internet). París: UNESCO; 2021. Available from: https://www.unesco.org/es/artificial-intelligence

3. European Union. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union. 2024;L1689:1-157. Available from:  https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689

4. Topol EJ. Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. New York: Basic Books; 2019.

5. Esteva A, Chou K, Yeung S, Naik N, Madani A, Mottaghi A, et al. Deep learning-enabled medical computer vision. NPJ Digital Medicine. 2021;4:5. doi: 10.1038/s41746-020-00376-2

6. Castaño Castaño S. La inteligencia artificial en Salud Pública: oportunidades, retos éticos y perspectivas futuras. Rev Esp Salud Publica. 2025;99:e202503017. PMID: 40165772; PMCID: PMC12128575.

7. Amann J, Blasimme A, Vayena E, Frey D, Madai VI, Precise4Q consortium. Explainability for artificial intelligence in healthcare: a multidisciplinary perspective. BMC Med Inform Decis Mak. 2020;20(1):310. doi: 10.1186/s12911-020-01332-6

8. Kosmyna N, Hauptmann E, Yuan YT, Situ J, Liao XH, Beresnitzky AV, et al. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. arXiv preprint 2506.08872. Available from: https://arxiv.org/abs/2506.08872

9. Benge JF, Scullin MK. A meta-analysis of technology use and cognitive aging. Nat Hum Behav. 2025;9(7):1405-1419. doi: 10.1038/s41562-025-02159-9

10. Beam AL, Kohane IS. Big data and machine learning in health care. JAMA. 2018;319(13):1317–1318. doi: 10.1001/jama.2017.18391

11. Bean WB. Sir William Osler: Aphorisms from His Bedside Teachings and Writings. New York: Henry Schuman; 1950.

12. Keivanlou N, Babaieasl F, Jamali J, Baghyari S, Dalir Z, Davoudi N. The effect of education using the interactive avatar application on self-care and the ability to identify and respond to the symptoms of heart attack in patients with acute coronary syndrome: a randomized clinical trial. BMC Health Serv Res. 2025:572. doi: 10.1186/s12913-025-12756-z

13. Rajkomar A, Dean J, Kohane I. Machine learning in medicine. N Engl J Med. 2019;380(14):1347-1358. doi: 10.1056/NEJMra1814259

 

How to cite: Pardo Ríos M, López López CA, Pérez Martínez ME. Artificial Intelligence in Care: From Digital Assistant to Ethical Companion. Enfermería: Cuidados Humanizados. 2026;15(1): e5027. doi: 10.22235/ech.v15i1.5027

 

Authors’ contribution (CRediT Taxonomy): 1. Conceptualization; 2. Data curation; 3. Formal Analysis; 4. Funding acquisition; 5. Investigation; 6. Methodology; 7. Project administration; 8. Resources; 9. Software; 10. Supervision; 11. Validation; 12. Visualization; 13. Writing: original draft; 14. Writing: review & editing.

M. P. R. has contributed in 1, 5, 13, 14; C. A. L. L. in 1, 5, 13, 14; M. E. P. M. in 1, 5, 13, 14.

 

Scientific editor in charge: Dra. Natalie Figueredo.

Enfermería: Cuidados Humanizados, 15 (1)

January - June 2026

10.22235/ech.v15i1.5027