Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 1/17
Revista sobre estudios e investigaciones del saber académico
Página Web: https://revistas.uni.edu.py/index.php/rseisa
Revista sobre estudios e investigaciones del saber académico |19| 19 (2025)
____________________________________________________________________________________________________________________
____________________________________________________________________________________________________________________
Artículo de Investigación / Research Article
Retos éticos y metodológicos en la integración de inteligencia artificial en auditoría
Ethical and methodological challenges in the integration of artificial intelligence in auditing
Miguel Ángel Alegre Brítez
1
https://orcid.org/0000-0003-4265-9391
1
Universidad Nacional de Asunción. San Lorenzo, Paraguay.
malegre333@gmail.com
____________________________________________________________________________________________________________________
INFORMACIÓN SOBRE ARTÍCULO
RESUMEN
Palabras Clave:
Inteligencia artificial
Auditoría financiera
Ética
Transparencia algorítmica
Ciberseguridad
El estudio examina los retos éticos y metodológicos de la integración de la inteligencia artificial (IA)
en la auditoría financiera, un ámbito que transforma de manera significativa los procesos de control
en un mundo digitalizado. La investigación resalta beneficios como la automatización y el análisis
predictivo, pero advierte sobre riesgos éticos vinculados con la falta de transparencia algorítmica, los
sesgos derivados de datos históricos y la ambigüedad en la asignación de responsabilidades, factores
que afectan la equidad y la confianza en los resultados. Asimismo, se identifican desafíos
metodológicos como la dependencia de datos confiables, los errores interpretativos generados por la
complejidad algorítmica y la vulnerabilidad a ciberataques, que comprometen la fiabilidad de los
procedimientos de auditoría. El trabajo, desarrollado con un enfoque cualitativo y una revisión crítica
de literatura especializada, organizó su análisis en seis categorías principales. Los hallazgos destacan
la necesidad de implementar estándares de transparencia, procesos de validación de datos s
rigurosos y programas de capacitación continua para los auditores. Se recomienda además el
desarrollo de marcos regulatorios sólidos y la creación de comités éticos internos que garanticen un
uso responsable de la IA. El estudio concluye que la gestión de estos retos requiere un equilibrio entre
innovación tecnológica, educación profesional y normativas claras, lo cual mantiene siempre un
componente humano en la supervisión de auditorías automatizadas. En América Latina, donde la
adopción aún es incipiente, se abre la oportunidad de establecer pautas sólidas antes de su
implementación masiva, lo que representa un espacio clave para futuras investigaciones.
ABSTRACT
Keywords:
Artificial Intelligence
Financial Auditing
Ethics
Algorithmic Transparency
Cybersecurity
Historial del Artículo
Fecha de Recepción: 27/03/2025
Fecha de Aprobación:07/10/2025
Fecha de Publicación: 08/10/2025
Área del conocimiento: Ciencias Sociales.
The study examines the ethical and methodological challenges of integrating artificial intelligence
(AI) into financial auditing, a field that significantly transforms control processes in a digitalized
world. The research highlights benefits such as automation and predictive analytics, but warns of
ethical risks linked to a lack of algorithmic transparency, biases derived from historical data, and
ambiguity in the assignment of responsibilities, factors that affect fairness and confidence in the
results. It also identifies methodological challenges such as the dependence on reliable data,
interpretive errors generated by algorithmic complexity, and vulnerability to cyberattacks, which
compromise the reliability of audit procedures. The study, developed with a qualitative approach and
a critical review of specialized literature, organized its analysis into six main categories. The findings
highlight the need to implement transparency standards, more rigorous data validation processes, and
ongoing training programs for auditors. The development of robust regulatory frameworks and the
creation of internal ethics committees to ensure the responsible use of AI are also recommended. The
study concludes that managing these challenges requires a balance between technological innovation,
professional education, and clear regulations, which always maintains a human component in the
oversight of automated audits. In Latin America, where adoption is still in its infancy, there is an
opportunity to establish robust guidelines before mass implementation, which represents a key area
for future research.
____________________________________________________________________________________________________________________
Autor de correspondencia
Email: malegre333@gmail.com (Miguel Ángel Alegre Brítez)
https://doi.org/10.70833/rseisa19item686
Conflictos de Interés: Los autores declaran no tener conflicto de interés de ningún tipo.
Este es un artículo de acceso abierto bajo una licencia Creative Commons CC-BY. Licencia https://creativecommons.org/licenses/by-nc-nd/4.0/
Citación recomendada: Alegre-Brítez, M. Á. (2025). Retos éticos y metodológicos en la integración de inteligencia artificial en auditoría. Revista sobre estudios e
investigaciones del saber académico (Encarnación), 19(19): e2025015
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero/diciembre de 2025. ISSN: 2078-5577/e-ISSN: 2078-7928
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 2/17
Introducción
En un mundo globalizado y digitalizado, la
inteligencia artificial (IA) se consolidó como una de
las tecnologías más disruptivas del siglo XXI,
transformó sectores tan diversos como el financiero, el
educativo, el de la salud y el contable (Chau, 2025;
Ndlovu y Schutte, 2024). En particular, la auditoría
financiera experimenta una revolución sin precedentes
debido a la incorporación de herramientas basadas en
IA, que permiten automatizar tareas repetitivas,
analizar grandes volúmenes de datos y predecir
riesgos potenciales con una precisión que supera las
capacidades humanas (Saona et al., 2025; Schoeman,
2024).
A nivel internacional, organizaciones líderes como la
International Federation of Accountants (IFAC), el
International Auditing and Assurance Standards
Board (IAASB) y el World Economic Forum
destacaron el potencial de la IA para optimizar los
procesos de auditoría. Sin embargo, esta adopción
masiva también plantea retos éticos y metodológicos
que requieren atención inmediata (Chakrabarty et al.,
2024; Ruiz-Barbadillo et al., 2024). En este contexto,
países como Estados Unidos, Reino Unido, China y
Alemania lideran la implementación de estas
tecnologías, desarrollan marcos regulatorios y
normativas para abordar los riesgos asociados
(Urdaneta Camacho et al., 2025; Vázquez Oteo et al.,
2025).
A pesar de estos avances internacionales, América
Latina presenta un panorama distinto, pero igualmente
relevante en cuanto a la adopción de IA en auditoría
financiera. Si bien la región aún se encuentra en una
etapa incipiente en comparación con mercados más
desarrollados, su potencial es innegable (González-
Morales et al., 2025; J. Lee et al., 2025). Los países
latinoamericanos enfrentan retos únicos relacionados
con la infraestructura tecnológica, la capacitación
profesional y la regulación.
Este contexto regional presenta una oportunidad única
para estudiar los retos éticos y metodológicos del uso
de IA en auditoría financiera desde una perspectiva
adaptada a las necesidades locales. Dado que muchos
países de la región están en proceso de modernización
de sus sistemas financieros y contables, existe una
ventana crítica para establecer marcos éticos y
regulatorios sólidos antes de que la tecnología se
adopte de manera masiva.
Además, la diversidad cultural, económica y
normativa de América Latina ofrece un laboratorio
natural para analizar cómo los principios éticos y las
limitaciones metodológicas varían según el contexto
local, lo que contribuye tanto al conocimiento global
como a la formulación de soluciones específicas para
la región.
Sin embargo, a pesar de los beneficios indiscutibles
que la IA ofrece a la auditoría financiera, su
implementación plantea retos éticos y metodológicos
que deben ser abordados para garantizar la integridad
y confiabilidad de los procesos. Uno de los principales
problemas éticos es la falta de transparencia en los
algoritmos utilizados. Muchos modelos de IA operan
como «cajas negras», lo cual significa que los
auditores y otros usuarios finales no entienden
completamente cómo se toman las decisiones
(Barrainkua Aroztegi et al., 2024; Blasco Leante et al.,
2024).
Esta opacidad erosiona la confianza de los usuarios en
los resultados de la auditoría y generar dudas sobre la
objetividad y neutralidad de los procesos. Además, el
sesgo algorítmico representa otro desafío ético
significativo. Si los modelos de IA se entrenan con
datos históricos que contienen prejuicios o
discriminaciones, estos sesgos se perpetúan en los
resultados, los cuales afectan negativamente la calidad
y equidad de la auditoría (Al-Shattarat, 2024; Stein y
Cunha, 2024). Desde una perspectiva metodológica,
las limitaciones de la IA también son preocupantes. La
dependencia de datos de alta calidad es un requisito
fundamental para el funcionamiento efectivo de los
modelos de IA, pero en muchos casos, los datos
disponibles son incompletos, inconsistentes o
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 3/17
erróneos (Blasco Leante et al., 2024; Caro Puro et al.,
2024).
Esto compromete la validez de los resultados y
aumenta el riesgo de errores en la toma de decisiones.
Además, la interpretación errónea de los resultados
generados por los sistemas automatizados es otra
limitación importante. La complejidad de los
algoritmos de IA dificulta que los auditores
comprendan completamente cómo se llega a ciertas
conclusiones, lo que incrementa la probabilidad de
malentendidos o decisiones incorrectas (Molina-
Sánchez et al., 2025; Monterrey Mayoral y Rabazo
Martín, 2025).
A causa de ello, es importante destacar que la IA solo
modifica cómo se realizan las auditorías, también
quién o q asume la responsabilidad por los
resultados generados. Este cambio introduce
dinámicas que comprometen principios
fundamentales de la auditoría, como la objetividad, la
independencia y la confidencialidad (Blasco Leante
et al., 2024; Caro Puro et al., 2024).
Otro riesgo ético importante es el sesgo algorítmico,
que ocurre cuando los modelos de IA reflejan
prejuicios presentes en los datos históricos. Esto
perpetua discriminaciones o injusticias en los
resultados, comprometen la equidad y objetividad de
la auditoría (Gunardi et al., 2025; Mohammed Al-
Matari, 2025). Por otro lado, las limitaciones
metodológicas de la IA también son cruciales. La
dependencia de datos de alta calidad es un requisito
fundamental para el funcionamiento efectivo de los
modelos de IA, pero en muchos casos, los datos
disponibles son incompletos, inconsistentes o
erróneos.
Esto compromete la validez de los resultados y
aumenta el riesgo de errores en la toma de decisiones.
Además, la interpretación errónea de los resultados
generados por los sistemas automatizados es otra
limitación importante (Ashraf et al., 2025; Quick y
Yalçin, 2024). La complejidad de los algoritmos de IA
dificulta que los auditores comprendan
completamente mo se llega a ciertas conclusiones,
lo que incrementa la probabilidad de malentendidos o
decisiones incorrectas.
En este orden de ideas, los sistemas automatizados son
vulnerables a ciberataques y manipulaciones externas,
lo que representa un riesgo adicional para la integridad
de los datos y, por ende, de la auditoría. Estos retos
éticos y metodológicos destacan la necesidad de
desarrollar estrategias proactivas que mitiguen los
riesgos asociados al uso de IA en auditoría financiera.
Con la incorporación de herramientas basadas en IA,
los auditores automatizan tareas repetitivas, identificar
patrones complejos en los datos y predecir riesgos
potenciales con una precisión sin precedentes (Wu
et al., 2025; Yang y Yang, 2024). Estas capacidades
han revolucionado la forma en que se realizan las
auditorías, lo que permite a los profesionales centrarse
en áreas más estratégicas y de análisis crítico.
No obstante, esta transformación no está exenta de
retos, particularmente en lo que respecta a los dilemas
éticos y las limitaciones metodológicas inherentes al
uso de estas tecnologías. La falta de transparencia, el
sesgo algorítmico, la dependencia de datos de calidad
y la vulnerabilidad a ciberataques son solo algunos de
los retos que deben ser abordados para garantizar que
la IA sea utilizada de manera responsable y efectiva
(Al-Shattarat, 2024; Stein y Cunha, 2024).
Además, es necesario reconocer que estos retos no son
resueltos únicamente mediante avances tecnológicos;
también requieren cambios en las normativas, en la
formación de los profesionales y en la cultura
organizacional (Bandeira y Almeida, 2024; Stein y
Cunha, 2024). En este sentido, la investigación
propuesta busca contribuir al desarrollo de un enfoque
integral que equilibre el avance tecnológico con los
principios éticos y metodológicos que sustentan la
auditoría financiera, asegura así la confianza de los
usuarios de la información financiera en un mundo
cada vez más digitalizado.
Esta investigación es relevante porque aborda un tema
de creciente importancia en un contexto de rápida
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 4/17
transformación tecnológica. A nivel internacional, la
adopción de IA en auditoría financiera avanza
rápidamente, pero los marcos éticos y regulatorios aún
están en desarrollo. En América Latina, donde la
implementación de estas tecnologías está en una etapa
inicial, existe una oportunidad única para establecer
pautas claras que promuevan su uso responsable y
efectivo.
Además, esta investigación proporciona un valor
práctico al ofrecer recomendaciones concretas para
auditores, reguladores y desarrolladores de tecnología,
en el mejoramiento de la implementación de IA en el
ámbito financiero. La justificación de esta
investigación también radica en su enfoque holístico
sobre los retos éticos y metodológicos asociados al uso
de IA en auditoría financiera.
A diferencia de otras investigaciones que se centran
exclusivamente en los beneficios tecnológicos, este
trabajo aborda tanto las oportunidades como los
riesgos, proporciona una visión equilibrada de la
situación actual. Al proponer estrategias concretas
para mitigar los riesgos identificados, esta
investigación busca contribuir al desarrollo de un
enfoque integral que equilibre el avance tecnológico
con los principios éticos y metodológicos que
sustentan la auditoría financiera.
Por todo lo expuesto, el objetivo general de la
investigación es: Examinar los retos éticos y
metodológicos asociados al uso de inteligencia
artificial en auditoría financiera. Además, se tienen los
siguientes objetivos específicos: 1) Determinar los
riesgos éticos derivados de la automatización en
procesos de auditoría financiera, 2) Analizar las
limitaciones metodológicas del uso de inteligencia
artificial en auditoría financiera y 3) Establecer
estrategias para mitigación de los riesgos identificados
en procesos automatizados de auditoría financiera.
Materiales y Métodos
La investigación adoptó un enfoque cualitativo con
modalidad documental, lo que implicó la ausencia de
participantes y pruebas psicométricas, esto permitió el
análisis de los retos éticos y metodológicos asociados
al uso de inteligencia artificial (IA) en auditoría
financiera a partir de fuentes documentales. Su
alcance fue explicativo, ya que identificó problemas
emergentes, analizó sus causas y formuló estrategias
mitigadoras basadas en evidencia teórica y práctica.
Asimismo, se aplicaron métodos inductivos,
deductivos, analíticos y comparativos, lo que facilitó
la construcción de conclusiones generales y la
validación de hipótesis previas, mientras que el
enfoque aplicado se orientó a la resolución de
problemas prácticos en la implementación de IA en
auditoría, lo cual garantiza relevancia para la
comunidad académica, profesionales y reguladores.
La recopilación de información se realizó mediante
una búsqueda sistemática en bases de datos
académicas como Scopus, Redalyc, Scielo, Web of
Science y JSTOR, con términos clave como
«inteligencia artificial», «auditoría financiera» y
«ética», combinados con operadores booleanos para
optimizar la selección de documentos relevantes.
Con el objetivo de asegurar la calidad de las fuentes,
se estableció un proceso en tres etapas: revisión
preliminar de títulos y resúmenes, evaluación
metodológica y análisis detallado del contenido. La
investigación se estructuró en cuatro fases
interrelacionadas.
En la primera fase se identificaron riesgos éticos
vinculados a la IA en auditoría y se contrastaron las
normativas vigentes con los desafíos tecnológicos
actuales. Se analizaron principios éticos clave y se
clasificaron los riesgos en tres categorías: falta de
transparencia algorítmica, sesgo algorítmico y
ambigüedad en la asignación de responsabilidades.
Durante la segunda fase se evaluaron limitaciones
metodológicas, identificándose cinco áreas críticas:
dependencia de datos de calidad, interpretación
errónea de resultados, vulnerabilidad a ciberataques,
ausencia de estandarización y dificultades de
integración con sistemas tradicionales. Este análisis
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 5/17
permitió comprender las implicaciones sobre la
fiabilidad de los procesos.
A partir de los hallazgos, la tercera fase formuló
estrategias mitigadoras fundamentadas en buenas
prácticas, recomendaciones de expertos y marcos
regulatorios. Entre las soluciones se incluyeron
estándares de transparencia algorítmica, capacitación
especializada de auditores, regulación específica y
auditorías paralelas humanas para validar los
resultados generados por IA.
En la cuarta fase se realizó una validación cruzada
mediante triangulación de fuentes y análisis
comparativo con estudios previos, lo que asegura
coherencia de las conclusiones con el conocimiento
existente.
Para organizar la información se emplearon
herramientas de análisis cualitativo y software de
gestión bibliográfica como Zotero y Mendeley,
además de matrices comparativas y modelos de
análisis costo-beneficio con el fin de evaluar la
viabilidad de las estrategias propuestas.
El procesamiento de datos inclula sistematización
de la información en hojas de cálculo y un análisis
cualitativo que identificó patrones y discrepancias en
la literatura, comparó los hallazgos con marcos
regulatorios existentes y formuló recomendaciones
para su mejora y adaptación a los desafíos de la IA en
auditoría financiera.
A pesar del rigor metodológico, se reconocen
limitaciones derivadas de la ausencia de mediciones
cuantitativas de los riesgos analizados, por lo que los
resultados se interpretan como una aproximación
conceptual y teórica más que como una evaluación
empírica directa.
Resultados
El análisis de los datos recopilados en esta
investigación permitió identificación y discusión en
seis subtemas claves relacionados con los retos éticos
y metodológicos del uso de inteligencia artificial (IA)
en auditoría financiera. A continuación, se presentan
los hallazgos más relevantes organizados en estos
subtemas, junto con una discusión crítica que integra
la evidencia documental, las implicaciones prácticas y
las recomendaciones para abordar los retos
identificados. Cada subtema es tratado con detalle, se
proporcionó un análisis exhaustivo que respondió a
los objetivos planteados en la investigación.
Tabla 1.
Falta de transparencia algorítmica en el dilema de la caja
negra.
Categorías
Subcategorías
Transparencia
Algoritmos, Caja negra
Confianza
Explicabilidad,
Usuarios finales
Responsabilidad profesional
Errores, Ambigüedad
Supervisión y evaluación
Organismos externos,
Reguladores
Infraestructura tecnológica
Experiencia técnica,
Implementación
Colaboraciones
Universidades,
Empresas de tecnología
Fuente: Elaboración propia (2025)
Conforme a la tabla 1, uno de los principales hallazgos
de este estudio es la falta de transparencia en los
algoritmos utilizados en IA, un fenómeno
comúnmente conocido como el «problema de la caja
negra». Los modelos de IA, especialmente aquellos
basados en aprendizaje profundo, suelen operar de
manera opaca, lo que dificulta que los auditores
comprendan mo se llega a ciertas conclusiones o
decisiones (Aldahray, 2024; Al-Shattarat, 2024;
Anderson et al., 2025).
En este problema, la falta de explicabilidad erosiona
la confianza de los usuarios finales en los resultados
de la auditoría. Por ejemplo, si un sistema
automatizado detecta anomalías en los estados
financieros, pero no proporciona una justificación
clara sobre cómo llegó a esa conclusión, los auditores
y otros interesados dudan de la validez del hallazgo
(Hancu-Budui y Zorio-Grima, 2024; Hayes et al.,
2025).
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 6/17
En este sentido, si un modelo de IA comete un error
debido a su opacidad, ¿quién asume la
responsabilidad? Esta ambigüedad compromete
principios fundamentales de la auditoría, como la
objetividad y la independencia (J. Lee et al., 2025; S.
Y. Lee y Marinovic, 2025). Además, desde una
perspectiva regulatoria, la falta de transparencia
dificulta la supervisión y evaluación de los sistemas
automatizados por parte de organismos externos,
como las autoridades fiscales o los reguladores
financieros.
Para abordar este desafío, se propone la
implementación de estándares de transparencia
algorítmica que exijan explicabilidad en los modelos
de IA utilizados en auditoría. Esto implica que los
desarrolladores de software deben diseñar sistemas
que permitan a los auditores rastrear y comprender las
decisiones tomadas por los algoritmos.
Además, se recomienda la capacitación continua de
los auditores en interpretación de modelos de IA, con
aseguramiento de que estén equipados para validar los
resultados generados por estos sistemas. En contextos
específicos, como América Latina, se sugiere
fomentar colaboraciones entre universidades,
empresas de tecnología y firmas de auditoría para
desarrollar herramientas adaptadas a las necesidades
locales, mediante priorización de la transparencia y la
facilidad de uso.
Otra estrategia clave es la creación de marcos
regulatorios que obliguen a las organizaciones a
adoptar prácticas de transparencia en sus sistemas
automatizados. Estos marcos incluirían requisitos para
la documentación detallada de los procesos internos de
los algoritmos, así como auditorías periódicas
realizadas por terceros independientes para evaluar la
transparencia y fiabilidad de los sistemas.
Tabla 2.
Sesgo algorítmico en perpetuación de injusticias y
discriminaciones.
Categorías
Subcategorías
Sesgo algorítmico
Prejuicios, Datos
históricos
Calidad de la auditoría
Equidad, Objetividad
Implicaciones éticas
Injusticias,
Discriminaciones
Impacto en comunidades
Desigualdades, Pymes
Validación y monitoreo
Pruebas de sesgo,
Revisión periódica
Marcos éticos
Auditorías éticas,
Retroalimentación
Fuente: Elaboración propia (2025)
Según la tabla 2, otro desafío ético identificado es el
sesgo algorítmico, que ocurre cuando los modelos de
IA reflejan prejuicios presentes en los datos históricos
utilizados para entrenarlos. El sesgo perpetúa
injusticias o discriminaciones en los resultados de la
auditoría (Aldahray, 2024; Bai et al., 2025). Por
ejemplo, si un modelo de IA se entrena con datos que
contienen prejuicios hacia ciertos sectores
económicos o grupos demográficos, estos sesgos
influyen en las decisiones tomadas durante el proceso
de auditoría, afectan negativamente la equidad y
objetividad de los resultados (Klann y Giordani, 2024;
Ştefănescu, 2025).
En un contexto donde la auditoría financiera debe
garantizar la igualdad y neutralidad en el tratamiento
de la información, la presencia de sesgos socava la
confianza pública en los procesos de auditoría.
Además, desde una perspectiva legal, el uso de
sistemas sesgados expondría a las organizaciones a
demandas o sanciones por discriminación o
incumplimiento de normativas antidiscriminatorias.
Para mitigación de este riesgo, se recomienda
implementar procesos rigurosos de validación y
monitoreo de los modelos de IA antes de su
implementación en auditoría. Esto incluye la
realización de pruebas de sesgo en los datos de
entrenamiento y la revisión periódica de los resultados
generados por los algoritmos. Además, se sugiere
fomentar la diversidad en los equipos de desarrollo de
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 7/17
IA, con diferentes perspectivas consideradas en el
diseño y entrenamiento de los modelos.
Una estrategia adicional es la creación de marcos
éticos que establezcan pautas claras para la
identificación y corrección de sesgos en sistemas de
IA. Estos incluirían auditorías éticas realizadas por
comités independientes, así como mecanismos de
retroalimentación que permitan a los usuarios reportar
posibles sesgos en los resultados generados por los
sistemas automatizados.
Tabla 3.
Dependencia de datos de alta calidad: vulnerabilidad
a errores y omisiones.
Categorías
Subcategorías
Dependencia de datos
Alta calidad,
Precisión
Calidad de la auditoría
Datos incompletos,
Datos erróneos
Implicaciones éticas
Decisiones
equivocadas, Partes
interesadas
Infraestructura tecnológica
Limitaciones,
Modernización
Responsabilidad profesional
Errores, Integridad
Colaboraciones
Auditores,
Reguladores
Fuente: Elaboración propia (2025)
En conformidad con la tabla 3, se analiza que un tercer
desafío metodológico identificado es la dependencia
de datos de alta calidad para el funcionamiento
efectivo de los modelos de IA. Los algoritmos de IA
requieren grandes volúmenes de datos precisos,
consistentes y representativos para operar
correctamente. Sin embargo, en muchos casos, los
datos disponibles son incompletos, inconsistentes o
erróneos, lo que compromete la validez de los
resultados (Chau, 2025; Ruiz-Barbadillo et al., 2024;
Schoeman, 2024). Por ejemplo, si los datos
financieros utilizados para entrenar un modelo de IA
contienen errores o están desactualizados, el sistema
generaría conclusiones incorrectas o sesgadas.
Este desafío tiene implicaciones significativas para la
auditoría financiera, ya que la calidad de los datos es
fundamental para garantizar la precisión y fiabilidad
de los informes. Además, desde una perspectiva ética,
el uso de datos de baja calidad lleva a decisiones
equivocadas que afecten a las partes interesadas, como
inversores, reguladores y clientes. En contextos
latinoamericanos, donde la infraestructura tecnológica
y la disponibilidad de datos de alta calidad aún son
limitadas, este problema se agrava considerablemente.
En este orden de ideas, si un auditor toma decisiones
basadas en datos incorrectos o incompletos, incurriría
en errores que comprometan la integridad de la
auditoría. Además, desde una perspectiva regulatoria,
la falta de datos de calidad dificulta el cumplimiento
de normativas financieras y fiscales.
Para abordar este desafío, se propone establecer
protocolos estrictos para la recolección, validación y
limpieza de datos antes de su uso en sistemas de IA.
Esto incluye la implementación de herramientas de
auditoría de datos que permitan identificar y corregir
errores o inconsistencias en tiempo real. Además, se
sugiere fomentar la colaboración entre auditores,
desarrolladores de tecnología y reguladores para
desarrollar estándares de calidad de datos aplicables a
la auditoría financiera.
Tabla 4.
Interpretación Errónea de Resultados: Complejidad
de los Algoritmos.
Categorías
Subcategorías
Complejidad de algoritmos
Interpretación,
Decisiones
Responsabilidad profesional
Errores, Integridad
Supervisión y evaluación
Reguladores,
Procesos
automatizados
Capacitación
Formación continua,
Aspectos técnicos
Interfaces gráficas
Reportes,
Comprensión
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 8/17
Auditorías paralelas
Equipo humano,
Validación manual
Fuente: Elaboración propia (2025)
En virtud de la tabla 4, la complejidad inherente de los
algoritmos de IA también representa un desafío
metodológico significativo. Muchos modelos de IA
son extremadamente sofisticados, lo que dificulta que
los auditores comprendan completamente mo se
llega a ciertas conclusiones. Por esto, la interpretación
errónea de los resultados lleva a malentendidos o
decisiones incorrectas en el proceso de auditoría
(Ashraf et al., 2025; Kang, 2025).
La discusión de este tema revela que la complejidad
de los algoritmos afecta la capacidad de los auditores
para validar los resultados, también plantea riesgos
éticos relacionados con la responsabilidad profesional.
Si un auditor toma una decisión basada en una
interpretación incorrecta de los resultados generados
por un sistema de IA, incurriría en errores que
comprometan la integridad de la auditoría. Además,
desde una perspectiva regulatoria, la falta de claridad
en la interpretación de los resultados dificulta la
supervisión y evaluación de los procesos
automatizados.
Para mitigar este riesgo, se recomienda capacitar a los
auditores en el uso de herramientas de IA y en la
interpretación de sus resultados. Esto incluye
programas de formación continua que cubran tanto
aspectos técnicos como éticos del uso de IA en
auditoría. Además, se sugiere desarrollar interfaces
gráficas y reportes que faciliten la comprensión de los
procesos internos de los algoritmos, para que los
auditores validen las conclusiones generadas por los
sistemas automatizados.
Una estrategia adicional es la implementación de
auditorías paralelas humanas, donde un equipo de
auditores revise manualmente los resultados
generados por los sistemas de IA. Esto actúa como una
salvaguarda contra errores o interpretaciones
incorrectas, en aseguramiento de que los informes
finales sean precisos y confiables.
Tabla 5.
Vulnerabilidad a ciberataques en riesgos para la integridad
de los datos.
Categorías
Subcategorías
Vulnerabilidad a ciberataques
Manipulaciones
externas, Integridad de
datos
Implicaciones éticas
Confianza pública,
Sanciones
Seguridad de datos
Cifrado de datos,
Autenticación
multifactorial
Colaboración
Auditores, Expertos en
ciberseguridad
Marcos regulatorios
Estándares mínimos,
Auditorías de seguridad
Estrategias de mitigación
Planes de respuesta,
Monitoreo continuo
Fuente: Elaboración propia (2025)
De acuerdo con la tabla 5, la vulnerabilidad de los
sistemas automatizados a ciberataques es otro desafío
metodológico identificado en este estudio. Los
sistemas de IA utilizados en auditoría financiera
dependen en gran medida de la conectividad digital y
el acceso a grandes volúmenes de datos, lo que los
hace susceptibles a manipulaciones externas. Los
ciberataques comprometen la integridad de los datos
y, por ende, la calidad de los informes de auditoría
(Barrainkua Aroztegi et al., 2024; Bonrath y Eulerich,
2024; Molina-Sánchez et al., 2025).
La discusión de este tema revela que la vulnerabilidad
a ciberataques afecta la seguridad de los datos,
también plantea implicaciones éticas y legales
significativas. Por ejemplo, si un atacante manipula
los datos utilizados en un proceso de auditoría,
alteraría los resultados de manera intencionada,
comprometería la confianza pública en los informes
financieros. Además, desde una perspectiva
regulatoria, las organizaciones enfrentarían sanciones
severas por incumplimiento de normativas de
seguridad de datos.
Para abordar este desafío, se recomienda
implementación de medidas robustas de
ciberseguridad, como cifrado de datos, autenticación
multifactorial y monitoreo continuo de las actividades
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 9/17
digitales. Además, se sugiere fomentar la colaboración
entre auditores, desarrolladores de tecnología y
expertos en ciberseguridad para desarrollar soluciones
integradas que protejan la integridad de los datos y los
sistemas automatizados.
Una estrategia adicional es la creación de marcos
regulatorios que obliguen a las organizaciones a
adoptar estándares mínimos de ciberseguridad en sus
procesos de auditoría. Estos marcos incluirían
auditorías de seguridad periódicas realizadas por
terceros independientes, así como la implementación
de planes de respuesta ante incidentes para minimizar
el impacto de posibles ciberataques.
Tabla 6.
Ambigüedad en la asignación de responsabilidades en ética
y profesionalismo.
Categorías
Subcategorías
Ambigüedad en
responsabilidades
Errores, Fallas
Ética profesional
Transparencia,
Confianza
Riesgos legales
Sanciones,
Disputas
Normativas
Claridad,
Regulación
Educación ética
Obligaciones,
Responsabilidades
Comités éticos
Supervisión,
Evaluación
Fuente: Elaboración propia (2025)
De conformidad con la tabla 6, un desafío ético crítico
identificado es la ambigüedad en la asignación de
responsabilidades cuando se utilizan sistemas
automatizados en auditoría financiera. La
implementación de IA introduce dinámicas que
complican la determinación de quién es responsable
de los errores o fallas en los procesos de auditoría
(Bonrath y Eulerich, 2024; Chakrabarty et al., 2024;
Mohammed Al-Matari, 2025). Por ejemplo, si un
sistema de IA genera un informe incorrecto, ¿es el
auditor humano quien supervisó el proceso, el
desarrollador del software o la organización que
implementó la tecnología quien asume la
responsabilidad?
La discusión de este tema revela que la ambigüedad
en la asignación de responsabilidades afecta la ética
profesional, también plantea riesgos legales
significativos. En un contexto donde la auditoría
financiera debe garantizar la transparencia y
responsabilidad en el tratamiento de la información, la
falta de claridad en la asignación de responsabilidades
erosiona la confianza pública en los procesos de
auditoría. Además, desde una perspectiva regulatoria,
la ambigüedad dificulta la imposición de sanciones o
la resolución de disputas legales.
Para abordar este desafío, se propone clarificar las
normativas éticas y regulatorias que rigen el uso de IA
en auditoría financiera. Esto incluye establecer pautas
claras sobre la asignación de responsabilidades en
función del rol desempeñado por cada actor
involucrado en el proceso. Además, se sugiere
fomentar la educación ética y profesional entre los
auditores, que comprendan sus obligaciones y
responsabilidades en un entorno automatizado.
Una estrategia adicional es la creación de comités
éticos dentro de las organizaciones que supervisen el
uso de IA en auditoría financiera. Estos comités serían
responsables de evaluar los riesgos éticos asociados a
la implementación de sistemas automatizados y de
garantizar que se cumplan las normativas éticas y
regulatorias vigentes.
Discusión
Con base en los hallazgos de esta investigación, el
marco teórico permite contextualizar los retos éticos y
metodológicos del uso de inteligencia artificial en
auditoría financiera dentro de la literatura existente.
En primer lugar, la falta de transparencia algorítmica,
conocida como «caja negra», se relaciona con los
estudios sobre explicabilidad y confianza en sistemas
de IA (Alastruey Merino, 2021; Cuervo Sánchez,
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 10/17
2021). Investigaciones recientes señalan que la
opacidad de los algoritmos de aprendizaje profundo
dificulta la comprensión de los procesos de decisión,
lo que impacta negativamente la confianza de los
auditores y de los usuarios finales (Albán López et al.,
2024; Ascencio Contreras y Berttolini Díaz, 2024),
La teoría de la agencia respalda la importancia de la
rendición de cuentas en contextos donde la
automatización reduce la visibilidad de las decisiones,
enfatiza la necesidad de transparencia y supervisión
regulatoria (Olarte-García et al., 2023; Peña Breffe y
del Toro Ríos, 2023). En este aspecto, la
implementación de estándares de transparencia
algorítmica y la capacitación de los auditores se
alinean con prácticas recomendadas para garantizar
objetividad y responsabilidad profesional.
Asimismo, el sesgo algorítmico se conecta con los
conceptos de justicia y equidad en auditoría
financiera. La literatura sobre ética en IA advierte que
los modelos entrenados con datos históricos perpetúan
discriminaciones y desigualdades, lo que afecta la
validez de los procesos de auditoría. La teoría de la
equidad en la auditoría sostiene que la objetividad en
la interpretación de datos es esencial para preservar la
confianza pública y la legitimidad del trabajo
profesional (Peñarrieta Villarroel, 2023; Pinto
Morales, 2023). Las estrategias de mitigación basadas
en validación de datos, revisión periódica de
resultados y diversidad en equipos de desarrollo
reflejan la aplicación práctica de estos principios
teóricos en contextos latinoamericanos.
Por otra parte, la dependencia de datos de alta calidad
evidencia la relevancia de la teoría de la información
y la gestión de riesgos en auditoría. Los errores y
omisiones en los datos comprometen la fiabilidad de
los sistemas automatizados, lo que genera impactos
éticos y regulatorios significativos (Abadia Elias
et al., 2024; Alastruey Merino, 2021). La literatura
sobre aseguramiento de la calidad de datos enfatiza
que la consistencia y precisión de los datos
constituyen un requisito fundamental para la
integridad de los informes financieros. La adopción de
protocolos de recolección y validación de datos, junto
con la colaboración entre auditores y desarrolladores
tecnológicos, se sustenta en este enfoque teórico.
En relación con la complejidad de los algoritmos, la
teoría del conocimiento y la ergonomía cognitiva
proporcionan un marco conceptual para comprender
los riesgos de interpretación errónea. La literatura
señala que la sofisticación técnica de los modelos de
IA genera desafíos en la validación de resultados y
aumenta la probabilidad de decisiones incorrectas por
parte de los auditores (León et al., 2022; Muñoz Pérez
et al., 2022). La capacitación continua y el desarrollo
de interfaces intuitivas se fundamentan en la necesidad
de mejorar la comprensión y el uso responsable de
sistemas automatizados, esto promueve la integridad y
la supervisión efectiva.
Además, la vulnerabilidad a ciberataques se relaciona
con teorías de seguridad informática y gestión de
riesgos tecnológicos. La literatura indica que los
sistemas automatizados dependen de la integridad de
los datos, por lo que ataques externos representan
amenazas éticas y legales importantes (Gonzalo
Quiroga, 2023; Martínez-Comesaño et al., 2023). La
implementación de medidas de ciberseguridad,
auditorías externas y marcos regulatorios específicos
se fundamenta en la teoría de control de riesgos, que
enfatiza la prevención, detección y mitigación de
incidentes críticos en auditoría financiera.
En este sentido, la ambigüedad en la asignación de
responsabilidades se vincula con teorías de ética
profesional y gobernanza corporativa. La literatura
resalta que la introducción de sistemas automatizados
genera incertidumbre respecto a la rendición de
cuentas, lo que afecta la confianza pública y la
efectividad de la supervisión regulatoria (Fajardo
Aguilar et al., 2023; García-Acuña et al., 2023). La
creación de comités éticos y la clarificación de
normativas éticas se apoyan en la teoría de la
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 11/17
responsabilidad profesional, esto asegura que los
auditores comprendan sus obligaciones y roles en
entornos automatizados.
En síntesis, la discusión teórica confirma que los retos
identificados en esta investigación sobre IA en
auditoría financiera reflejan fenómenos ampliamente
documentados en la literatura, y que la aplicación de
marcos conceptuales como la teoría de la agencia, la
equidad, la gestión de riesgos y la ética profesional
permite orientar estrategias prácticas para garantizar
transparencia, equidad, calidad y responsabilidad en
los procesos de auditoría.
Conclusión
El análisis realizado en esta investigación permitió
concluir que los riesgos éticos derivados de la
automatización en procesos de auditoría financiera
son significativos y requieren atención inmediata. La
falta de transparencia algorítmica, el sesgo
algorítmico y la ambigüedad en la asignación de
responsabilidades emergieron como retos éticos
críticos. Estos problemas comprometen principios
fundamentales de la auditoría, como la objetividad y
la independencia, que también erosionan la confianza
pública en los resultados generados por sistemas
automatizados.
En particular, la opacidad de los algoritmos dificulta
que los auditores comprendan mo se toman las
decisiones, lo que lleva a errores o malentendidos.
Además, el sesgo algorítmico perpetúa injusticias y
discriminaciones, afecta negativamente la equidad en
los procesos de auditoría. Por esto, la ambigüedad en
la asignación de responsabilidades plantea dilemas
éticos y legales que necesitan ser abordados mediante
normativas claras y marcos regulatorios robustos.
A partir de este contexto, es importante destacar que
las limitaciones metodológicas del uso de inteligencia
artificial en auditoría financiera también representan
un reto considerable. Se identificaron varios retos
técnicos que afectan la calidad y fiabilidad de los
procesos. Por ejemplo, la dependencia de datos de alta
calidad es un requisito fundamental para el
funcionamiento efectivo de los modelos de IA, pero
en muchos casos, los datos disponibles son
incompletos, inconsistentes o erróneos, lo que
compromete la validez de los resultados.
Asimismo, la complejidad inherente de los algoritmos
dificulta su interpretación, lo cual aumenta el riesgo de
errores en la toma de decisiones. En este sentido, la
vulnerabilidad a ciberataques representa otro desafío
metodológico importante, ya que los sistemas
automatizados son susceptibles a manipulaciones
externas que comprometen la integridad de los datos
y, por ende, de la auditoría. Estas limitaciones
subrayan la necesidad de desarrollar herramientas y
procedimientos que mitiguen estos riesgos y aseguren
la confiabilidad de los procesos.
Con base en lo anterior, se propusieron estrategias
específicas para mitigación de los riesgos
identificados en procesos automatizados de auditoría
financiera. Entre estas estrategias, se destaca la
implementación de estándares de transparencia
algorítmica, la capacitación continua de auditores y el
desarrollo de marcos regulatorios robustos, todas ellas
orientadas a garantizar el uso responsable de IA en
auditoría. Además, se sugiere mantener un
componente humano en los procesos automatizados
mediante la realización de auditorías paralelas
humanas, que validen los resultados generados por los
sistemas de IA. Estas estrategias buscan mitigar los
riesgos éticos y metodológicos asociados al uso de IA,
también fomentar un enfoque integral que equilibre el
avance tecnológico con los principios éticos y
metodológicos que sustentan la profesión.
En este punto, es posible afirmar que el uso de
inteligencia artificial en auditoría financiera ofrece
oportunidades sin precedentes para mejoramiento de
la eficiencia, precisión y capacidad analítica de los
procesos. Sin embargo, también introduce retos éticos
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 12/17
y metodológicos que deben ser gestionados
cuidadosamente para garantizar la integridad y
confiabilidad de los resultados. La falta de
transparencia, el sesgo algorítmico, la dependencia de
datos de calidad y la vulnerabilidad a ciberataques son
solo algunos de los retos que necesitan ser abordados
para garantizar que la IA sea utilizada de manera
responsable y efectiva.
Además, es necesario reconocer que estos retos no son
resueltos únicamente mediante avances tecnológicos;
también requieren cambios en las normativas,
formación de los profesionales y cultura
organizacional. En este sentido, la investigación
propuesta busca la contribución al desarrollo de un
enfoque integral que equilibre el avance tecnológico
con los principios éticos y metodológicos que
sustentan la auditoría financiera.
Por otro lado, los auditores y profesionales del sector
financiero requieren priorizar la capacitación continua
en el uso de herramientas de inteligencia artificial y en
la identificación de sesgos algorítmicos. Por ello, es
fundamental que comprendan mo funcionan los
sistemas automatizados y validen los resultados
generados por estos sistemas. Además, la adopción de
una postura ética proactiva que promueva prácticas
transparentes y responsables en el uso de IA resulta
indispensable. Los profesionales también necesitan
estar preparados para colaborar con expertos en
tecnología y ciberseguridad para garantizar integridad
de los datos y seguridad de los sistemas.
De igual forma, las firmas de auditoría y empresas
financieras deben invertir en infraestructura
tecnológica y modernizar sus sistemas de gestión de
datos. El establecimiento de protocolos estrictos para
la recolección, validación y limpieza de datos antes de
su uso en sistemas de IA es crucial. El fomento en la
creación de comités éticos internos que supervisen el
uso de IA en auditoría financiera asegura el
cumplimiento de normativas éticas y regulatorias
vigentes. La colaboración con reguladores y
organismos internacionales para el desarrollo de
marcos regulatorios que promuevan el uso
responsable de IA en el ámbito financiero también es
esencial.
Por último, como futuras líneas de investigación, la
exploración de cómo las diferencias culturales,
económicas y normativas afectan la implementación
de IA en auditoría financiera en diferentes regiones,
especialmente en América Latina, abriría nuevas
perspectivas. La identificación de cómo las pymes
adoptan tecnologías avanzadas de manera accesible y
sostenible resulta relevante. El estudio del impacto de
la IA en la percepción pública sobre la confiabilidad
de los informes financieros y evaluación del papel de
la educación en la formación de profesionales capaces
de integrar ética y tecnología en sus prácticas diarias
son áreas prometedoras. En consecuencia, el
desarrollo de estudios empíricos que midan el impacto
de las estrategias propuestas en esta investigación
proporcionaría evidencia práctica sobre su efectividad
en contextos reales.
Referencia
Abadia Elias, M., Arruda Faversani, L., Vieira
Moreira, J. A., Viapiana Masiero, A., &
Veronez da Cunha, N. (2024). Inteligencia
artificial en salud y sus implicaciones
bioéticas: Una revisión sistemática. Revista
Bioética, 31, e3542PT.
https://doi.org/10.1590/1983-
803420233542ES
Alastruey Merino, C. F. (2021). Estado de la cuestión
de la inteligencia artificial y los sistemas de
aprendizaje autónomo. Sociología y
tecnociencia: Revista digital de sociología
del sistema tecnocientífico, 11(2), 182-195.
https://dialnet.unirioja.es/servlet/articulo?co
digo=8155421
Albán López, V. L., Ramírez Cotacachi, J. M., Ruiz
Lita, E. P., & Sandoval Malquìn, D. M.
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 13/17
(2024). Control interno de cuentas por cobrar
para mejorar la información financiera.
Gestio et Productio: Revista Electrónica de
Ciencias Gerenciales, 6(Extra 1), 24-34.
https://dialnet.unirioja.es/servlet/articulo?co
digo=9847790
Aldahray, A. (2024). Notes Readability and
Discretionary Accruals. Revista de
Contabilidad, 27(2), 229-238.
https://doi.org/10.6018/rcsar.459281
Al-Shattarat, B. (2024). The influence of leverage on
accrual-based and real earnings
management: Evidence from the UK. Revista
de Contabilidad, 27(2), 239-248.
https://doi.org/10.6018/rcsar.499761
Anderson, S. B., Mendoza, K. I., & Mongold, C.
(2025). The Effect of Intangible Asset
Classification on Professional Financial
Statement Users Assessments. Journal of
Accounting Research, 1475-679X.12604.
https://doi.org/10.1111/1475-679X.12604
Ascencio Contreras, P. H., & Berttolini Díaz, G. M.
(2024). Auditoría como herramienta para el
éxito empresarial. Publicaciones e
Investigación, 18(2), 3.
https://dialnet.unirioja.es/servlet/articulo?co
digo=10012689
Ashraf, M., Donelson, D. C., McInnis, J., &
Mergenthaler, R. D. (2025). Fair value
accounting standards and securities
litigation. Journal of Accounting and
Economics, 79(1), 101705.
https://doi.org/10.1016/j.jacceco.2024.1017
05
Bai, M., Dong, N., Zhang, H., Zhang, J., & Xu, J.
(2025). How personal values influence
earnings management ethics: The mediation
role of moral disengagement. Spanish
Journal of Finance and Accounting / Revista
Española de Financiación y Contabilidad,
54(1), 86-109.
https://doi.org/10.1080/02102412.2024.240
6337
Bandeira, A. M., & Almeida, J. E. F. D. (2024).
Effects of firm life cycle on matching and
accrual quality. Revista Contabilidade &
Finanças, 35(96), e1817.
https://doi.org/10.1590/1808-
057x20241817.en
Barrainkua Aroztegi, I., Aldazabal Etxeberria, M. E.,
& Espinosa-Pike, M. (2024). Improving
work outcomes in audit firms: The mediating
role of perceived organizational support.
Revista de Contabilidad, 27(2), 331-343.
https://doi.org/10.6018/rcsar.529101
Barrera Guerra Jr., J. L., & Hinojosa Cruz, A. V.
(2025). El grado de aplicación del modelo de
control interno COSO 2013 y su efecto en la
rentabilidad de las empresas públicas
mexicanas no SEC. Contaduría y
Administración, 70(3), 514.
https://doi.org/10.22201/fca.24488410e.202
5.5007
Blasco Leante, J. E., Baños-Caballero, S., & García-
Teruel, P. J. (2024). Debt maturity in Spanish
small business startups. Revista de
Contabilidad, 27(2), 323-330.
https://doi.org/10.6018/rcsar.487681
Bonrath, A., & Eulerich, M. (2024). Internal
auditing’s role in preventing and detecting
fraud: An empirical analysis. International
Journal of Auditing, ijau.12342.
https://doi.org/10.1111/ijau.12342
Caro Puro, R., Hernández Borreguero, J. J., & Donoso
Anes, A. (2024). Management and accounts
of the disentailment process in Seville
Cathedral (19th century): The sale of estates.
Revista de Contabilidad, 27(2), 249-259.
https://doi.org/10.6018/rcsar.532831
Chakrabarty, B., Hyman, M., & Krishnan, G. V.
(2024). Audit outcomes of non‐financial
misconduct. International Journal of
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 14/17
Auditing, ijau.12347.
https://doi.org/10.1111/ijau.12347
Chau, J. (2025). Accounting Information Usage and
Trading by Retail Investors: Evidence from
Integrated Trading Platform. Journal of
Accounting Research, 1475-679X.12606.
https://doi.org/10.1111/1475-679X.12606
Cuervo Sánchez, C. A. (2021). Efectos de la
inteligencia artificial en las estrategias de
marketing: Revisión de literatura.
aDResearch: Revista Internacional de
Investigación en Comunicación, 24, 26-41.
https://dialnet.unirioja.es/servlet/articulo?co
digo=7705935
Dudycz, T. (2024). Operating leverage: A critical
analysis of the concept and the methods of
measurement. Revista de Contabilidad,
27(2), 195-211.
https://doi.org/10.6018/rcsar.509111
Fajardo Aguilar, G. M., Ayala Gavilanes, D. C.,
Arroba Freire, E. M., & López Quincha, M.
(2023). Inteligencia Artificial y la Educación
Universitaria: Una revisión sistemática.
Magazine de las Ciencias: Revista de
Investigación e Innovación, 8(1), 109-131.
https://doi.org/10.33262/rmc.v8i1.2935
García-Acuña, L. T., Zambrano-Andrade, F. I.,
Acuña-Chong, M. G., & Acuña-Cumba, M.
L. (2023). Oportunidades y desafíos en la
aplicación de la inteligencia artificial en la
educación superior. Revista Científica
Arbitrada de Investigación en
Comunicación, Marketing y Empresa
REICOMUNICAR. ISSN 2737-6354., 6(12
Ed. esp.), Article 12 Ed. esp.
https://doi.org/10.46296/rc.v6i12edespoct.0
172
Garcia-Blandon, J., Argilés-Bosch, J. M., & Ravenda,
D. (2025). The impact of board gender quotas
on analyst recommendations: A difference-
in-differences analysis. Revista de
Contabilidad, 28(1), 71-83.
https://doi.org/10.6018/rcsar.525891
González-Morales, M., Cavero-Rubio, J. A., &
Amorós-Martínez, A. (2025). The role of
political foundations in the bank
indebtedness of political parties: The case of
Spain. Spanish Journal of Finance and
Accounting / Revista Española de
Financiación y Contabilidad, 54(1), 1-22.
https://doi.org/10.1080/02102412.2024.236
5533
Gonzalo Quiroga, M. (2023). La inteligencia artificial
en el arbitraje internacional 2.0.
Oportunidades y desafíos en un futuro que ya
es presente. CUADERNOS DE DERECHO
TRANSNACIONAL, 15(2), 516-550.
https://doi.org/10.20318/cdt.2023.8067
Gunardi, A., Badavath, S., & Mathur, S. (2025).
Evaluating the moderating effect of online
shopping attitude on online impulsive
shopping; A study of Indian emerging market
shoppers. Contaduría y Administración,
70(3), 505.
https://doi.org/10.22201/fca.24488410e.202
5.5023
Hancu-Budui, A., & Zorio-Grima, A. (2024). New
Public Governance and Public Value Co-
creation: The Case of the European Court of
Auditors Environmental Audits. Revista de
Contabilidad, 27(2), 275-287.
https://doi.org/10.6018/rcsar.519241
Hayes, R. M., Jiang, F., Pan, Y., & Tang, H. (2025).
Racial Disparities in Financial Complaints
and the Role of Corporate Social Attitudes.
Journal of Accounting Research, 1475-
679X.12612. https://doi.org/10.1111/1475-
679X.12612
Isack, M., & Aschauer, E. (2024). The Role of CSR
Report Assurance and ESG Rating in Bank
Manager’s Judgement on ESG Lending
Decisions. International Journal of Auditing,
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 15/17
ijau.12369.
https://doi.org/10.1111/ijau.12369
Jo, E. H., Lee, J. W. (Jenny), & Scott, T. (2025). Is
Communication Between the Auditor and
Audit Committee Associated With Stock
Price Crash Risk? International Journal of
Auditing, ijau.12372.
https://doi.org/10.1111/ijau.12372
Kang, Y. (2025). Financial Reporting Around Private
Firms’ Securities Offerings. Journal of
Accounting Research, 1475-679X.12598.
https://doi.org/10.1111/1475-679X.12598
Kazim, I., Wang, F., Nie, D., & Jameel Hussain, M.
(2025). Can more able CEOs reduce the gap
between internal and external CSR
disclosures? Revista de Contabilidad, 28(1),
84-95. https://doi.org/10.6018/rcsar.557871
Klann, R. C., & Giordani, M. D. S. (2024). Uso de
mídia social pelo CEO e a relevância da
informação contábil. Revista de
Contabilidade e Organizações, 18, e224767.
https://doi.org/10.11606/issn.1982-
6486.rco.2024.224767
Lee, J., Jung, S., & Cho, H. (2025). Managerial ability
and tax avoidance adjustment toward the
optimal level. Spanish Journal of Finance
and Accounting / Revista Española de
Financiación y Contabilidad, 54(1), 57-85.
https://doi.org/10.1080/02102412.2024.238
0954
Lee, S. Y., & Marinovic, I. (2025). Dynamic
Information Acquisition, Investment, and
Disclosure. Journal of Accounting Research,
1475-679X.12610.
https://doi.org/10.1111/1475-679X.12610
León, D. A., Martínez Cuenca, J. G., Ardila Sánchez,
I. A., & Mosquera Palacios, D. J. (2022).
Inteligencia artificial para el control de
tráfico en redes de datos: Una Revisión.
Entre ciencia e ingeniería, 16(31), 17-24.
https://doi.org/10.31908/19098367.2655
Li, B., & Wang, A. Y. (2024). On the EPA’s Radar:
The Role of Financial Reports in
Environmental Regulatory Oversight.
Journal of Accounting Research, 62(5),
1849-1900. https://doi.org/10.1111/1475-
679X.12572
Martínez-Comesaño, M., Rigueira-Díaz, X.,
Larrañaga-Janeiro, A., Martínez-Torres, J.,
Ocarranza-Prado, I., & Kreibel, D. (2023).
Impacto de la inteligencia artificial en los
métodos de evaluación en la educación
primaria y secundaria: Revisión sistemática
de la literatura. Revista de Psicodidáctica,
28(2), 93-103.
https://doi.org/10.1016/j.psicod.2023.06.001
Mohammed Al-Matari, E. (2025). Do corporate
environmental sustainability affect corporate
performance? The role of board diversity
evidence from Saudi Arabia stock market.
Contaduría y Administración, 70(3), 507.
https://doi.org/10.22201/fca.24488410e.202
5.5591
Molina-Sánchez, H., De Vicente-Lama, M., & Ortiz-
Gómez, M. D. M. (2025). Interpretation of
the concept of liabilities in lease accounting.
Revista de Contabilidad, 28(1), 57-70.
https://doi.org/10.6018/rcsar.538161
Monterrey Mayoral, J., & Rabazo Martín, A.-E.
(2025). How are accounting irregularities
examined in Spanish insolvency
proceedings? An empirical analysis. Revista
de Contabilidad, 28(1), 151-164.
https://doi.org/10.6018/rcsar.577941
Muñoz Pérez, S. P., Mendoza Peña, J. G., & Quispe
Vílchez, M. B. (2022). Una revisión sobre el
rol de la inteligencia artificial en la industria
de la construcción. Ingeniería y
competitividad: revista científica y
tecnológica, 24(2), 1-23.
https://dialnet.unirioja.es/servlet/articulo?co
digo=8637552
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 16/17
Ndlovu, M. O., & Schutte, D. P. (2024). An evaluation
of tax compliance among small businesses.
South African Journal of Accounting
Research, 1-19.
https://doi.org/10.1080/10291954.2024.237
2132
Olarte-García, M., Hidalgo-Barrios, B. V., & Flores-
Barrios, L. (2023). Los beneficios contables
y fiscales en el régimen de las Actividades
Agrícolas, ganaderas, silvícolas y pesqueras.
Revista Biológico Agropecuaria Tuxpan,
11(2), 230-238.
https://doi.org/10.47808/revistabioagro.v11i
2.517
Peña Breffe, R., & del Toro Ríos, J. C. (2023).
Generalidades sobre una norma contable para
la agricultura cubana. Cofin Habana, 17(2).
http://scielo.sld.cu/scielo.php?script=sci_abs
tract&pid=S2073-
60612023000200009&lng=es&nrm=iso&tln
g=es
Peñarrieta Villarroel, W. R. (2023). Análisis e
interpretación de la Norma Internacional de
Auditoría (NIA 500) relacionada a la
evidencia de auditoria [Tesis de grado,
Universidad Mayor de San Andrés].
http://repositorio.umsa.bo/xmlui/handle/123
456789/33245
Pinto Morales, A. A. (2023). El control de calidad y
la gestion de La sociedad de auditoría,
Gutierrez Pinto & Asociados, Sede en Jesus
MaríaAño 2021 [Tesis de grado,
Universidad Peruana de las Américas].
http://repositorio.ulasamericas.edu.pe/xmlui/
handle/123456789/4015
Quick, R., & Yalçin, N. (2024). The Impact of
Combating Bribery and Corruption Report
Assurance on Financial Analysts’ Decisions.
International Journal of Auditing,
ijau.12370.
https://doi.org/10.1111/ijau.12370
Ruiz-Barbadillo, E., Martinez-Conesa, I., Serrano-
Madrid, J., & Brown-Liburd, H. (2024).
Audit Risk Management and Audit Effort in
Small and Medium Audit Firms. Revista de
Contabilidad, 27(2), 212-228.
https://doi.org/10.6018/rcsar.462211
Saona, P., Muro, L., & López-Quesada, E. (2025). An
integrated corporate governance index for
Spain: From construction to construct
validity. Revista de Contabilidad, 28(1), 32-
56. https://doi.org/10.6018/rcsar.535401
Schoeman, A. (2024). An exploratory study on
supplier acceptance of and engagement in a
national tax lottery designed to improve tax
compliance. South African Journal of
Accounting Research, 1-21.
https://doi.org/10.1080/10291954.2024.239
3913
Ştefănescu, C. A. (2025). Towards a conceptualised
belief-action-outcome model for enhanced
non-financial reporting: A systematic and
integrative review. Revista de Contabilidad,
28(1), 115-132.
https://doi.org/10.6018/rcsar.568861
Stein, E., & Cunha, P. R. D. (2024). Professional
skepticism of internal auditors and
perception of risks in internal controls.
Revista Contabilidade & Finanças, 35(96),
e1922. https://doi.org/10.1590/1808-
057x20241922.en
Urdaneta Camacho, R., Guevara Pérez, J. C., Martín
Vallespín, E., & Llena Macarulla, F. (2025).
’Creative accounting’ in the Spanish
professional football League: An attempt to
dodge the rules economic control? Revista de
Contabilidad, 28(1), 180-192.
https://doi.org/10.6018/rcsar.553911
Vázquez Oteo, O., Garcia-Torea, N., & De La Cuesta-
González, M. (2025). Corporate corruption
management: A proposal for an
accountability framework. Revista de
Alegre-Brítez Revista sobre estudios e investigaciones del saber académico
Revista sobre estudios e investigaciones del saber académico, 19 (19), enero /diciembre de 2025 ISSN: 2078-5577 e-ISSN: 2078-7928 17/17
Contabilidad, 28(1), 96-114.
https://doi.org/10.6018/rcsar.543701
Wu, S., Zhu, J., & Wu, T. (2025). The impact of CEO
founder and CEO age on new ventures
performance: A quantile regression analysis
for U.S. IPOs. Revista de Contabilidad,
28(1), 3-17.
https://doi.org/10.6018/rcsar.553941
Yang, L., & Yang, P. (2024). Market conditions,
investor sentiment and disposition effect. An
empirical study based on China’s stock
market. Revista de Contabilidad, 27(2), 260-
274. https://doi.org/10.6018/rcsar.529401