Compliment Normatiu

Confirmada la ampliación del plazo para la aplicación del Reglamento “Verifactu”

El BOE del pasado 2 de abril publicaba el Real Decreto 254/2025, que modifica el Real Decreto 1007/2023, por el cual se aprueba el reglamento que establece los requisitos de los sistemas y programas informáticos que soportan los procesos de facturación de empresarios y profesionales (Verifactu).

El Real Decreto mencionado confirma lo que ya se conocía extraoficialmente, la ampliación de los plazos de entrada en vigor de las obligaciones que regula para los sujetos pasivos afectados:

  • Para los sujetos pasivos del impuesto sobre sociedades, con excepción de las entidades exentas y las parcialmente exentas por las rentas sujetas y exentas, se amplía el plazo hasta el 1 de enero de 2026.
  • Para los empresarios y profesionales sujetos al impuesto sobre la renta de las personas físicas, y los no residentes que obtengan rentas mediante establecimiento permanente, hasta el 1 de julio de 2026.
Facebooktwittergoogle_pluslinkedinmail

Publicación del ICAC sobre el depósito de cuentas y el régimen sancionador

El pasado 3 de marzo, el ICAC publicó el documento “Depósito de Cuentas: su papel clave para la transparencia empresarial y el régimen sancionador”. En dicho documento, el ICAC destaca la importancia del depósito de las cuentas anuales para garantizar la seguridad en el ámbito comercial. Con ello, justifica la imposición de un marco normativo y un régimen de sanciones en caso de incumplimiento.

La obligación de presentar las cuentas anuales está contemplada en el texto refundido de la Ley de Sociedades de Capital, donde, en el artículo 279, apartado 1, se dispone:
“Dentro del mes siguiente a la aprobación de las cuentas anuales, los administradores de la sociedad presentarán, para su depósito en el Registro Mercantil del domicilio social, certificación de los acuerdos de la junta de socios de aprobación de dichas cuentas, debidamente firmadas, y de aplicación del resultado, así como, en su caso, de las cuentas consolidadas, a la que se adjuntará un ejemplar de cada una de ellas. Los administradores presentarán también el informe de gestión, que incluirá, cuando proceda, el estado de información no financiera, y el informe del auditor, cuando la sociedad esté obligada a auditoría por una disposición legal o esta se hubiera acordado a petición de la minoría o de forma voluntaria y se hubiese inscrito el nombramiento de auditor en el Registro Mercantil.” (más…)

Facebooktwittergoogle_pluslinkedinmail

El Reglamento Europeo de Inteligencia Artificial: Un Nuevo Paradigma Normativo en la Unión Europea

El 1 de agosto de 2024 marcó un punto de inflexión en la regulación tecnológica europea con la entrada en vigor del Reglamento Europeo de Inteligencia Artificial, conocido como AI Act. Este marco normativo, pionero a escala mundial, tiene como objetivo fomentar el desarrollo y la implementación responsables de la inteligencia artificial (IA) en la Unión Europea (UE), abordando los posibles riesgos para la salud, la seguridad y los derechos fundamentales de los ciudadanos.

La entrada en vigor del Reglamento Europeo de Inteligencia Artificial representa un paso decisivo hacia una regulación integral de la IA en la UE. Este marco normativo establece las bases para un desarrollo y uso de la IA que sean seguros, éticos y respetuosos con los derechos fundamentales, posicionando a Europa como líder en la gobernanza responsable de las tecnologías emergentes.

El AI Act establece una clasificación de los sistemas de IA basada en el nivel de riesgo que pueden representar:

  1. Riesgo Inaceptable: Sistemas de IA prohibidos por considerarse una amenaza para los derechos fundamentales, como la manipulación subliminal que pueda provocar daños o la puntuación social por parte de los gobiernos.
  2. Riesgo Alto: Sistemas que afectan sectores críticos como la educación, el empleo, las infraestructuras esenciales y la administración de justicia. Estos sistemas están sujetos a estrictas obligaciones de transparencia, supervisión humana y evaluación de conformidad antes de su comercialización.
  3. Riesgo Limitado: Sistemas que requieren obligaciones específicas de transparencia, como informar a los usuarios de que están interactuando con una IA, garantizando así una toma de decisiones informada.
  4. Riesgo Mínimo o Nulo: Sistemas que representan un riesgo mínimo para los derechos o la seguridad de los usuarios y que, por tanto, no están sujetos a obligaciones adicionales.

El reglamento impone diversas obligaciones tanto a los proveedores como a los usuarios de sistemas de IA:

  • Proveedores: Deben garantizar que los sistemas de IA de riesgo alto cumplan con los requisitos de gestión de riesgos, gobernanza de datos, documentación técnica, transparencia, supervisión humana y robustez. Además, están obligados a registrar estos sistemas en una base de datos de la UE antes de su comercialización.
  • Usuarios: Deben utilizar los sistemas de IA según las instrucciones proporcionadas, asegurarse de que estén bajo supervisión humana y monitorear su funcionamiento para informar de cualquier incidente grave o mal funcionamiento.

El AI Act busca equilibrar la promoción de la innovación con la protección de los derechos fundamentales. Al imponer obligaciones proporcionales al nivel de riesgo, se pretende mitigar posibles daños sin, en teoría, obstaculizar el desarrollo tecnológico. Sin embargo, surgen desafíos en la interpretación y aplicación de estas normas, especialmente en lo que respecta a la definición de las categorías de riesgo y la implementación de medidas de supervisión y transparencia.

 

Facebooktwittergoogle_pluslinkedinmail

Aquest lloc web utilitza cookies pròpies i de tercers per obtenir informació dels seus hàbits de cerca i intentar millorar la qualitat dels nostres serveis i de la navegació pel nostre lloc web. Si està d’acord fes click a ACCEPTAR o segueixi navegant. Més informació. aquí.

ACEPTAR
Aviso de cookies