Transformación Digital e Ingeniería 4.0 – Blog y noticias sobre ingeniería | Structuralia https://blog.structuralia.com En nuestro blog trabajamos en contenidos especializados para que estés informado en todo momento sobre toda la actualidad, tendencias y consejos relacionados con la ingeniería. Wed, 19 Nov 2025 10:38:21 +0000 es hourly 1 https://wordpress.org/?v=6.9 https://blog.structuralia.com/wp-content/uploads/2024/12/cropped-structuralia-favicon-1-32x32.png Transformación Digital e Ingeniería 4.0 – Blog y noticias sobre ingeniería | Structuralia https://blog.structuralia.com 32 32 Uso de sensores IoT en la gestión de edificios inteligentes  https://blog.structuralia.com/transformacion-digital-sensores-iot https://blog.structuralia.com/transformacion-digital-sensores-iot#respond Mon, 07 Jul 2025 14:02:19 +0000 https://blog.structuralia.com/?p=8609 Los sensores IoT están revolucionando la forma en que se gestionan los edificios modernos, permitiendo una supervisión constante, automática y precisa de múltiples variables del entorno. Gracias a su capacidad de conectividad y análisis en tiempo real, estos dispositivos se han convertido en herramientas clave dentro de los edificios inteligentes, optimizando el consumo de recursos, mejorando la seguridad y elevando los estándares de confort y sostenibilidad.

A lo largo de este artículo, exploraremos qué son estos sensores, cómo funcionan, cuáles son sus principales aplicaciones y qué ventajas ofrecen en la gestión de edificios inteligentes.

Introducción al Internet de las Cosas (IoT) en entornos urbanos 

La transformación digital en el ámbito urbano está siendo impulsada por el desarrollo del Internet de las Cosas (IoT), una tecnología que permite conectar objetos físicos a la red para recopilar, compartir y analizar datos en tiempo real. Esta capacidad resulta clave en la evolución hacia las ciudades inteligentes, donde la eficiencia, la sostenibilidad y la experiencia de los usuarios son prioridades fundamentales. Como así destacan proveedores de IoT como puede ser Tele2 IoT.

En este contexto, los edificios inteligentes se presentan como espacios capaces de autorregularse y adaptarse a las necesidades cambiantes de sus ocupantes. 

Uno de los componentes esenciales para hacer posible esta automatización y optimización son los sensores IoT. Estos dispositivos, integrados estratégicamente en infraestructuras como viviendas, oficinas, hospitales o centros comerciales, permiten monitorizar el entorno y generar información útil para tomar decisiones informadas. Su utilización en la gestión de edificios inteligentes no solo representa un avance tecnológico, sino una herramienta eficaz para lograr objetivos de eficiencia energética, seguridad y bienestar de los usuarios. 

Te resultará interesante en esta línea la información sobre Ciudades y edificios inteligentes en Latinoamérica.

¿Qué son los sensores IoT y cómo funcionan? 

Los sensores IoT son dispositivos electrónicos diseñados para captar variables físicas o ambientales como temperatura, humedad, movimiento, iluminación o calidad del aire, y transmitir esa información mediante tecnologías de comunicación, habitualmente de tipo inalámbrico. Esta transmisión de datos permite integrar los sensores dentro de sistemas inteligentes, donde los valores medidos pueden ser analizados y utilizados para activar respuestas automáticas o alertas. 

Lo más destacado de estos sensores es su capacidad para operar de forma continua y autónoma, lo que les convierte en piezas clave dentro de una infraestructura digital. Gracias a su reducido tamaño, bajo consumo y facilidad de instalación, se pueden desplegar en prácticamente cualquier espacio del edificio. Además, su funcionamiento se apoya en tecnologías como Wi-Fi, Zigbee, LoRaWAN o Bluetooth Low Energy, lo que favorece su integración en una red de aplicaciones de IoT cada vez más robusta y eficiente. La clave de su utilidad radica en la capacidad para transformar datos en decisiones concretas. 

Ventajas de los sistemas inteligentes en la gestión de edificios 

La implementación de sistemas inteligentes en edificios, soportados por sensores IoT, ofrece múltiples ventajas tanto para los gestores como para los usuarios. Entre las más importantes se encuentran la reducción de costes operativos, la mejora de la eficiencia energética, el aumento de la seguridad y la comodidad, así como una mayor capacidad para realizar mantenimiento predictivo. 

Además, la disponibilidad constante de datos permite tomar decisiones basadas en evidencia, lo que facilita la optimización de recursos y procesos. Todo ello se traduce en una gestión más proactiva, sostenible y orientada al futuro. Los edificios ya no son estructuras pasivas, sino nodos inteligentes dentro de un ecosistema urbano interconectado. La verdadera revolución en el sector inmobiliario no está en los materiales, sino en los datos que somos capaces de generar, interpretar y utilizar. 

Tipos de sensores IoT en edificios inteligentes 

La diversidad de sensores IoT disponibles actualmente permite cubrir prácticamente cualquier necesidad dentro de un edificio inteligente. A continuación, se enumeran los más comunes y su función: 

  • Sensores de temperatura y humedad: controlan el clima interior, permitiendo gestionar de forma eficiente la calefacción, ventilación y aire acondicionado. 
  • Sensores de calidad del aire: Miden niveles de dióxido de carbono, compuestos orgánicos volátiles y partículas contaminantes, garantizando un ambiente saludable. 
  • Sensores de luz: Ajustan automáticamente la intensidad de la iluminación artificial en función de la luz natural disponible. 
  • Sensores de consumo eléctrico: Registran en tiempo real la cantidad de energía utilizada, ayudando a detectar ineficiencias y a mejorar el consumo de energía

Cada tipo de sensor aporta una capa de información diferente, pero todos ellos se combinan para ofrecer una visión global del estado del edificio. Esta sensorización avanzada permite que los edificios inteligentes sean capaces de adaptarse al uso real que hacen sus ocupantes, reduciendo el derroche y optimizando recursos. La sensorización no es solo una cuestión tecnológica, sino una herramienta de sostenibilidad. 

Sistema de control: integración de sensores en redes inteligentes 

Para que la información proporcionada por los sensores IoT sea útil, debe procesarse adecuadamente dentro de un sistema de control. Este sistema actúa como el “cerebro” del edificio, integrando los datos recibidos y coordinando las respuestas automáticas que deben ejecutarse. Estas respuestas pueden incluir desde la activación de sistemas de climatización hasta el envío de notificaciones en caso de detección de intrusos o fallos en los equipos. 

Un sistema de control bien diseñado es capaz de interpretar los datos en tiempo real, tomar decisiones autónomas o permitir que los operadores gestionen las instalaciones de forma remota. La interoperabilidad entre diferentes dispositivos y plataformas es un aspecto esencial para lograr una red eficiente y escalable. En este sentido, los sensores IoT son el primer eslabón en una cadena que culmina en un ecosistema inteligente completamente automatizado. La capacidad de respuesta del sistema depende directamente de la calidad de los datos generados por los sensores. 

Optimización del consumo de energía mediante sensores IoT 

Uno de los objetivos prioritarios en la gestión de edificios inteligentes es reducir el consumo de energía sin sacrificar el confort o la funcionalidad. Para ello, los sensores IoT juegan un papel fundamental al permitir una gestión energética precisa y adaptativa. Estos sensores detectan cuándo y dónde se requiere energía, ajustando los sistemas de iluminación, climatización y ventilación a las necesidades reales de los usuarios. Actuaciones que promueve activamente la Asociación Nacional de Ahorro y Eficiencia Energética.

Por ejemplo, en espacios donde no hay ocupación durante ciertas horas del día, los sensores pueden apagar automáticamente los equipos, evitando el gasto innecesario. Además, el análisis histórico de los datos registrados permite realizar auditorías energéticas y prever patrones de consumo. Gracias a esta inteligencia energética, los edificios inteligentes pueden reducir su huella de carbono y contribuir a la sostenibilidad del entorno urbano. No se trata solo de ahorrar energía, sino de usarla de forma inteligente. 

Aplicaciones de IoT en climatización, iluminación y seguridad 

Las principales aplicaciones de IoT dentro de los edificios inteligentes se agrupan en tres áreas clave: climatización, iluminación y seguridad. En la climatización, los sensores regulan automáticamente la temperatura y humedad en función del número de personas y las condiciones del entorno. Esto no solo mejora la eficiencia, sino que también incrementa el confort de los ocupantes. 

En cuanto a la iluminación, se implementan sistemas de regulación dinámica que se activan por detección de movimiento o niveles de luz natural. Esto permite mantener siempre una iluminación adecuada sin incurrir en un uso excesivo de energía. Por último, en seguridad, los sensores IoT se integran con cámaras, alarmas y sistemas de control de acceso para detectar intrusiones, incendios o fallos técnicos, y actuar de inmediato. La combinación de estas aplicaciones convierte al edificio en un organismo vivo, capaz de responder ante estímulos en tiempo real. 

Conclusión

La integración de sensores IoT en edificios no es una tendencia futura: es una necesidad actual. Gracias a ellos, los espacios que habitamos pueden ser más eficientes, seguros y sostenibles. A medida que la tecnología evoluciona, estos sensores seguirán jugando un papel esencial en el desarrollo de ciudades inteligentes, más conectadas y centradas en las personas.

]]>
https://blog.structuralia.com/transformacion-digital-sensores-iot/feed 0
Método de elementos finitos: pilar de la ingeniería 4.0 https://blog.structuralia.com/metodo-de-elementos-finitos https://blog.structuralia.com/metodo-de-elementos-finitos#respond Fri, 04 Jul 2025 09:30:49 +0000 https://blog.structuralia.com/?p=8600 En el contexto de la transformación digital e ingeniería 4.0, el método de elementos finitos (MEF) de Zienkiewicz, se posiciona como una herramienta esencial para el análisis y diseño de productos complejos. Esta técnica de simulación computacional permite predecir cómo se comportará un objetivo físico bajo diferentes condiciones, sin necesidad de realizar costosos prototipos físicos.

El dominio del Método de elementos finitos no solo mejora la precisión en los procesos de diseño y validación, sino que representa una ventaja competitiva para cualquier profesional técnico. ¿Sabías que muchos de los ingenieros mejor pagados dominan el análisis por elementos finitos para optimizar sus proyectos y liderar la innovación tecnológica?

Pero, ¿en qué consiste exactamente esta metodología y por qué es tan utilizada en ingeniería? Te lo explicamos a continuación.

¿Qué es el método de elementos finitos?

Imagina que tienes que analizar cómo se comportará una estructura compleja como un puente, una silla o incluso una pieza de avión. Hacer todos los cálculos matemáticos a la vez sería extremadamente complicado, ¿verdad? Aquí es donde entra en juego el método de elementos finitos (MEF): una técnica numérica que divide ese objeto en muchas partes pequeñas y manejables, como si fuera un rompecabezas. A cada una de esas partes se le llama «elemento finito».

Método de elementos finitos

Al estudiar cada uno de estos elementos por separado y luego unir la información, un software especializado puede simular con gran precisión cómo se comportará todo el conjunto ante diferentes situaciones: “¿Se doblará?”, “¿Vibrará?”, “¿Se calentará?”, “¿Podría romperse?”

Este método permite predecir resultados sin necesidad de construir costosos prototipos físicos, y por eso se ha convertido en una herramienta esencial en campos como la automoción, la aeronáutica, la construcción o la biomecánica, donde también se incorporan tecnologías avanzadas como los materiales inteligentes en arquitectura.

¿Cómo funciona un programa de elementos finitos?

Los programas de elementos finitos suelen estructurarse en tres módulos de trabajo principales, que organizan el proceso de simulación de forma lógica y eficiente:

1. Preprocesador

Este módulo es el encargado de preparar toda la información necesaria antes de ejecutar la simulación. Incluye:

  • Modelado geométrico: se define la forma y dimensiones del objeto o sistema.
  • Generación de la malla: se divide el modelo en pequeños elementos (triangulares, cuadriláteros, tetraédricos, etc.).
  • Definición de materiales: se asignan propiedades físicas y mecánicas (elasticidad, densidad, conductividad, etc.).
  • Condiciones de contorno: se aplican fuerzas, restricciones, presiones, temperaturas, etc.
  • Cargas externas y contactos: se establecen los puntos de interacción con el entorno o entre componentes.

2. Procesador o calculador

Es el núcleo del programa, donde se lleva a cabo el análisis numérico. Aquí se realiza:

  • Formulación y ensamblaje del sistema de ecuaciones que gobierna el comportamiento del modelo.
  • Resolución matemática del sistema mediante métodos numéricos (como el método directo o iterativo).
  • Cálculo de resultados intermedios, como desplazamientos nodales, tensiones internas, deformaciones, velocidades o temperaturas.

3. Post-procesador

Este módulo permite interpretar y visualizar los resultados obtenidos del análisis. Las funciones más comunes son:

  • Visualización gráfica: mapas de tensiones, deformaciones, desplazamientos, campos de temperatura, etc.
  • Extracción de datos: resultados cuantitativos en puntos críticos o líneas de interés.
  • Verificación y validación: comparación con resultados teóricos, experimentales o con límites de diseño.
  • Animaciones: para estudios transitorios o de respuesta dinámica.

Esta estructura modular permite trabajar de manera organizada y facilita tanto el desarrollo de modelos complejos como el análisis detallado de los resultados.

Ventajas del método de elementos finitos

El uso del método de elementos finitos ofrece múltiples beneficios para las organizaciones que apuestas por la innovación:

  • Reducción de prototipos físicos, con el consiguiente ahorro de recursos.
  • Mayor precisión en el análisis estructural, térmico y dinámico.
  • Optimización de procesos de diseño y fabricación.
  • Detección temprana de errores o puntos débiles.
  • Adaptabilidad a distintos campos de la ingeniería y ciencias aplicadas, como la ingeniería de drones y antidrones o la ingeniería civil.

Software para el análisis de elementos finitos

Existen diversas soluciones de software para el método de elementos finitos, cada una especializada en diferentes industrias. Algunos de los más utilizados son:

  • ANSYS: es un software de simulación de ingeniería asistida por ordenador (CAE) extremadamente versátil y potente. Su punto fuerte radica en su capacidad para manejar una amplia gama de fenómenos físicos y simulaciones en diversas disciplinas, lo que lo hace ideal para simulaciones multipropósito.
  • Abaqus: es un software de análisis de elementos finitos (FEA) de alto rendimiento, particularmente muy valorado en sectores como automoción, aeroespacial y biomecánica. Se especializa en el análisis no lineal de materiales y estructuras, así como en simulaciones complejas de contacto.
  • SolidWorks Simulation: integrado en entornos CAD, ideal para ingenieros de producto.
  • COMSOL Multiphysics: especializado en simulaciones físicas acopladas (eléctricas, térmicas, mecánicas).

Todos estos programas cuentan con módulos avanzados que facilitan el postprocesamiento, el análisis de resultados y su integración en flujos de trabajo digitales más amplios, como los utilizados en proyectos de BIM aplicado a la ingeniería civil.

Conclusión

El método de elementos finitos (MEF) se ha consolidado como una herramienta indispensable para ingenieros y profesionales técnicos que buscan optimizar diseños, reducir errores y tomar decisiones basadas en simulaciones precisas. En un entorno donde la innovación tecnológica y la eficiencia son clave, dominar esta metodología no solo mejora la calidad de los proyectos, sino que abre la puerta a nuevas oportunidades profesionales en sectores altamente especializados.

Invertir en el aprendizaje del MEF es apostar por una carrera alineada con la ingeniería 4.0, donde la capacidad de analizar, modelar y prever el comportamiento de estructuras y sistemas se traduce en un perfil técnico altamente valorado. Porque en el mundo actual, simular antes de construir ya no es una opción, sino una ventaja competitiva.

Fórmate con Structuralia y prepárate para liderar la ingeniería del futuro.

]]>
https://blog.structuralia.com/metodo-de-elementos-finitos/feed 0
Proyecto TFM: Licitación en Proyecto Público Privado de Carreteras https://blog.structuralia.com/proyecto-tfm-licitacion-en-proyecto-publico-privado-de-carreteras https://blog.structuralia.com/proyecto-tfm-licitacion-en-proyecto-publico-privado-de-carreteras#respond Tue, 29 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-licitacion-en-proyecto-publico-privado-de-carreteras

Descubre cómo un alumno analiza la licitación de un proyecto de carreteras en una Asociación Público-Privada desde la perspectiva de un fondo de inversión.

Trabajo Fin de Master: Informe Ejecutivo sobre la Licitación No. 1/2016 del Proyecto Público Privado de Carreteras “Diseño, construcción, operación y financiamiento de la infraestructura vial en Rutas Nº 12, 54, 55, 57 y construcción del Bypass de la ciudad de Carmelo CIRCUITO 1 en Uruguay”.

Proyecto TFM: Trabajo de Fin de Master para el Máster Internacional en Proyectos de Colaboración Público-Privados

Este Trabajo de Fin de Master para el Máster Internacional en Proyectos de Colaboración Público-Privados consistió en ponerse dentro de los zapatos de un analista financiero de un Fondo de Inversión dedicado a invertir en proyectos de colaboración público-privada o de Asociaciones Público-Privadas – APP mediante la modalidad de inversión de Project Finance.  El cliente consistía en una empresa dedicada al desarrollo de proyectos de concesiones de carreteras que solicitó financiamiento al Fondo para participar en un concurso de licitación pública de diseño, construcción, operación y financiamiento de ciertas rutas en la ciudad de Carmelo en Uruguay en 2016.  Para esto se debió analizar cuidadosamente los pliegos de licitación para identificar alertas sobre la viabilidad financiera del proyecto, pero sobre todo respecto al repago de la deuda hacia el Fondo, es decir un análisis de viabilidad y riesgos desde el punto de vista del financista.  ¡Interesante perspectiva!

1. Descripción del Proyecto de Concesión Vial

El proyecto comprende el diseño, construcción y/o rehabilitación, mantenimiento y financiamiento de 17 subtramos dentro de los 4 tramos mencionados y el bypass totalizando 260,27 kms.  En este aspecto es importante recalcar que el proyecto contiene una sección greenfield en donde se debe diseñar, planificar, construir y mantener obras viales nuevas que no existen; yellowfield en donde las obras requieren importantes ampliaciones y rehabilitaciones; y brownfield en donde ciertos tramos existen y están operativos que deben ser puestos a punto acorde a los indicadores de servicios solicitados y mantenidos.    

El contrato corre por 20 años plazo y el monto máximo de oferta es de 3.000.000.000 de Unidades Indexadas (moneda uruguaya indexada al dólar para contrarrestar la inflación misma que en 22 años de vida alcanzó de manera acumulada el 530%).  Los pliegos para participación en el concurso del 

El pago al contratista se realiza mediante fórmulas que corresponden a 3 componentes A, B y C que toman en cuenta variables de indicadores de servicio mediante coeficientes técnicos, la infraestructura terminada y el tráfico de los tramos reparados, rehabilitados, construidos, mantenidos y reparados lo indica que los ingresos contemplan una porción de inciertos fluctuante con el mercado de automóviles, riesgo para un financista respecto al repago de su deuda.

El concurso público se realiza mediante precalificación de los interesados y luego en realizar una propuesta técnica por 30% de la calificación y una propuesta económica por 70%, evidenciando que la productividad y precio juegan como principal factor decisorio.

1.Pliegos Analizados MTOP UY 2016

Ilustración 1 Pliegos Analizados MTOP Uruguay

2. Análisis de Riesgos del Proyecto

Se realizó una ponderación de riesgos basada en la metodología aplicada por el Ministerio de Economía y Finanzas del Ecuador.  La metodología realiza una valoración entre 1 y 9 de los riesgos, entendiendo que 0 equivale a la no existencia del riesgo y 10 a un riesgo convertido en cierto y de alto impacto por lo tanto imposible de manejar o mitigar.  La metodología se resume en el siguiente gráfico y consiste en multiplicar el número según la probabilidad asignada por el número del impacto asignado y obtener un resultado del riesgo:

2.Metodologia Riesgos MEF EC

Ilustración 2 Metodologia Riesgos MEF EC

La calificación de riesgo global del proyecto, siendo el promedio simple de todas las ponderaciones de los diferentes riesgos fue de 3.56 equivalente a un proyecto con riesgo moderado, además de que a mayo 2022 el EMBI (Emerging Markets Bond Index de JP Morgan) de Uruguay alcanzó 1.53 cuando la región tiene un promedio de 4.18 y a nivel global es de 3.85 por lo cual el país presenta leves riesgos macroeconómicos.

3.Ponderacion de RiesgosIlustración 3 Ponderación de Riesgos del Proyecto

En cuanto a la distribución de riesgos, se concluye que en principio se sigue los lineamientos de mejores prácticas a nivel internacional y el proyecto presenta una alta transferencia de riesgos hacia el contratista sin embargo se realizó un análisis de ciertos riesgos importantes para el criterio del Fondo: 

  • El más complejo es la asunción del riesgo de demanda (ingreso que depende del volumen del tráfico) en uno de los 3 componentes del pago por disponibilidad, que realmente se traduce en un pago por uso o peaje sombra.  Esto implica que los modelos financieros deben demostrar viabilidad con una reducción de ingresos de hasta 10% y sin arriesgar el repago de la deuda.
  • Se destaca que, en caso de huelgas o malestar social, no se contemplarían como fuerza mayor y estos riesgos pueden recaer sobre el contratista directamente por lo cual es importante que se cuente con retroalimentación de la aceptación del público sobre el proyecto y la consulta previa.
  • Se asegura el repago de la deuda al financista en primera prelación y se aseguran step-in rights siempre con aprobación de la entidad contratante.  Sin embargo, se alerta que en caso de una terminación anticipada se utilizará las garantías de fiel cumplimiento para repago de la deuda senior pero en caso que quede un saldo deberá ser satisfecha por los accionistas por lo cual se requerirá garantías o colaterales directos de los accionistas.
  • En los pliegos se contempla como opción de resolución de conflictos, fuera de la justicia común de Uruguay, la opción de arbitraje en el mismo Uruguay donde el laudo arbitral será inapelable.  Esta opción de arbitraje nacional constituye un posible riesgo inaceptable ya que podría ocurrir un sesgo en el arbitraje y no corresponde a la práctica usual de que se pueda tener un arbitraje internacional en Nueva York o Londres

3. Análisis de la Información Proporcionada (perspectiva del financista)

Se realizó un análisis de información proporcionada con el objeto de identificar estudios necesarios o información faltante para poder decidir sobre financiar el proyecto con razonabilidad:

  1. Dentro de los pliegos se proporcionó un estudio de tráfico por día y por tramo basado en la información recolectada a través de los años de las porciones existentes, sin embargo, es necesario que se encargue un estudio de tráfico robusto de una empresa de alta reputación preferiblemente internacional.  El estudio ayudará a corroborar o brindar nuevos estimados y sobre todo proyecciones futuras.  Esto es esencial para definir los límites para el modelo financiero sobre reducción de ingresos y máximos de financiamiento.
  2. Al ser una carretera con componentes greenfield es importante que solicitar un análisis previo de los posibles impactos ambientales y sociales que puedan conllevar riesgos reputacionales, costos de reparación no programados y además posibles reasentamientos de personas y acciones sociales en contra del proyecto.
      
  3. Se deberá solicitar una debida diligencia sobre la infraestructura existente, el status legal de los predios y el marco legal de la licitación.  Este análisis que se encargará a alguna firma local con conocimiento de las leyes locales.  Así también se deberá estimar los tiempos para obtención de licencias para construcción, obtención de licencias ambientales, entre otras, para asegurar que los plazos podrán ser alcanzados especialmente en cuanto a la operación de la infraestructura.
  4. Se debe solicitar a la empresa cliente un estudio de prefactibilidad de costos de operación y mantenimiento, así como de costos de construcción.  Este estudio forma parte vital de lo que los proponentes privados deben realizar previo a presentar una oferta.  La información levantada junto con una provisión para riesgos inesperados sería utilizada para elaborar el modelo económico financiero y crear el Plan Económico Financiero y derivado de esto la propuesta final, tanto técnica como económica.  Si bien este estudio lo debe realizar el proponente privado, para evitar problemas de agencia, el fondo requerirá una auditoría o verificación de los estudios.

En conclusión, sobre la información proporcionada, si bien el proyecto presenta una adecuada estructuración, el riesgo de demanda es bastante alto y las condiciones y políticas financieras que se impondrán al privado, y que serán reflejadas en el modelo financiero, dependen de información vital que debe ser complementada o levantada, tal como: un estudio de tráfico, estudio socio ambiental, debida diligencia de infraestructura y predios necesarios y costos a nivel de prefactibilidad.  Sin estos estudios no se podría realizar una oferta de financiamiento para el concurso.

4. Otras condiciones para el proyecto (para el contratista y financista)

Para la elaboración del modelo financiero y plan económico financiero es importante que el Fondo de Inversión tome en cuenta las siguientes consideraciones:

  • Capital Social mínimo Aportado Los pliegos del contrato establecen que como mínimo los accionistas deberán aportar un 15% de capital social a la Sociedad Específica de Proyecto del total del CAPEX necesario y al momento de la conformación se deberá aportar el 25% de este monto esperando en 4 meses completar el restante 75% de capital social.  Esto quiere decir que el financiamiento deberá ser como máximo de 75% del CAPEX.
  • Límite a la reducción de Patrimonio Bajo ninguna circunstancia durante la vida del contrato se podrá reducir el capital social y patrimonio perteneciente al privado de la SPV, en caso que esto ocurra puede considerarse una causal de terminación por causa del concesionario si no se cuenta con autorización previa y justificada por la Entidad Contratante.
  • Autorización en caso de emisión de bonos u otras obligaciones En caso de que se decida financiar el proyecto con bonos u otras obligaciones, se deberá obtener la aprobación de la entidad contratante previo a la firma del contrato.
  • Autorización y prohibición de cesión de acciones Queda prohibida la cesión de acciones hasta finalizar la construcción de obra.  Solamente se lo podrá realizar bajo autorización de la entidad contratante por un máximo de 20% siempre que la SPV mantenga las ratios de solvencia requerida para la licitación.  Esto es liquidez de 1, máximo apalancamiento de 2 y rentabilidad de 5% de la constructora principal accionista.
  • Garantías exigidas y fondo de provisión Se requiere una garantía de fiel cumplimiento de contrato por $1.600.000 dólares americanos y un fondo de reparo de $1.600.000 dólares americanos para la etapa de construcción y puesta a punto.  Para la etapa de operación y mantenimiento se requiere una garantía de fiel cumplimiento de $2.500.000 dólares que se deberá mantener hasta 12 meses luego de la reversión del activo.  Se retendrá del pago por disponibilidad un 1.5% mínimo que se constituirá en un fondo de provisión que se utilizará para compensar las condiciones que no se cumplan al momento de entrega del activo según las condiciones requeridas.  Se devolverá hasta 2 años luego de la entrega final de los activos.
  • Costo del Fideicomiso El contratista deberá depositar anualmente en el fideicomiso un valor de $1.700.000 unidades indexadas que serán utilizadas para costos del contralor o fiscalizador.

Conclusiones sobre la información financiera sobre el contratista y el financista

Las presentadas son condiciones que implican límites, tanto a la estrategia de financiamiento como de gestión de la empresa de propósito específico del proyecto que deberá considerar tanto el financista como el contratista.  Además, se establecen costos, sobre todo de garantías, fondos y fideicomisos, en que deben incurrirse mismos que reducen los flujos operativos y éstos deben considerarse en costos de inversión y costos de mantenimiento reduciendo el flujo disponible para el servicio de la deuda.  Esto debe incluirse en el modelo financiero para así calcular las ratios de cobertura de la deuda necesarios e incluso en los análisis de sensibilidad que el Fondo debe exigir al contratista.

5. Sensibilidades del Modelo Financiero de los Proponentes (para el financista)

En los pliegos del proyecto se solicita un resumen con información del resultado de aplicar distintas sensibilidades en variables elegidas y su reflejo en otras variables seleccionadas.  Las sensibilidades aplicadas deberán reflejar el impacto sobre las siguientes variables utilizando el modelo financiero: TIR del accionista, TIR del proyecto, y ratios de cobertura del servicio de la deuda – DSCR (mínimo y promedio).

4.Cascada de Fllujo Project FinanceIlustración 4 Cascada de Flujos para Project Finance

Las variables y la magnitud que se han elegido para las sensibilidades son: 

  • Variación de obras iniciales en + y – 15% (se entiende que sería el CAPEX total necesario para la primera fase para el componente A, B y C).  Se debería considerar un aumento de CAPEX de 25% debido a que las carreteras pueden resultar en altos sobrecostos.
  • Variación de las inversiones asociadas al mantenimiento mayor durante la fase de explotación por + y – 15% del CAPEX.  Se concluye que son suficientes.
  • Reducción de ingresos anuales del PPD por 5% por concepto de deducciones (sería el PPD total).  Se considera que no es suficiente para el financista.  Se entiende que si se llega a una reducción de -8% por 2 años consecutivos sería motivo de terminación por causa del concesionario.  Para consumo de los financistas se debería considerar una caída de -10% en el PPD que podría ocurrir debido a una sobre estimación en las proyecciones de tráfico.
  • Sensibilidad ante aumento de la tasa de financiamiento de 15%.  se considera que no es necesaria siempre y cuando se incluya el costo de implementar el SWAP de tasa de interés en los flujos operativos y de financiamiento.

Si bien se han solicitado las principales variables de impacto, para consumo del financista, las variables adicionales deberían incluir:

  • Loan Life Coverage Ratio – ratio del valor presente de ingresos en el tiempo del repago del financiamiento para cubrir el valor presente neto total del servicio de la deuda global 
  • Project Life Coverage Ratio – ratio del valor presente de ingresos en el tiempo total del proyecto respecto para cubrir el valor presente neto del total del servicio de la deuda global

Estas variables ayudarían a verificar que no se rompan los límites de comodidad de riesgo del financista siendo la LLCR la más ácida.

Adicional a las sensibilidades requeridas, el financista debe solicitar un análisis de sensibilidad y su impacto en las variables antes mencionadas (TIR accionista y proyecto, DSCR mínimo y promedio, PLCR y LLCR) de las siguientes variables:

  • Impacto de un aumento del OPEX en 10% que no se consideró previamente y puede ocurrir debido a la inflación o sobreestimación de costos.
  • Presentar un escenario pesimista que incluya: +15% de CAPEX inicial, -10% PPD y +5% CAPEX de reparación y +5% OPEX 
  • Se podría correr con las variables de sensibilidades un modelo estocástico tipo Monte Carlo para identificar que los escenarios de NO Financiación sean menores al 10%.

6. Conclusión y Recomendación

Luego del resumen y análisis presentado sobre el Trabajo de Fin de Master se concluye que la oportunidad de inversión para el Fondo de Inversión sobre la concesión de carreteras en Uruguay es de riesgo moderado y sería atractiva debido a que el MTOP de Uruguay es una entidad con experiencia comprobada.  Además, Uruguay no presenta un riesgo país fuera de grado de inversión y el proyecto se encuentra adecuadamente estructurado.

En este sentido, el análisis financiero y económico del analista del Fondo, deberá recomendar que se continúe con el trabajo con el cliente y solicitar los estudios adicionales requeridos.  Una vez con esa información se podrá completar el modelo financiero acordado e incluir condiciones financieras para mitigar el riesgo de mercado por PPD como colaterales de accionistas, así como un diferencial entre la deuda pendiente de pago cada año y la garantía de ejecución de la concesionaria y finalmente incluir una cuenta de reserva de servicio de deuda por 1 año.


RESEÑA DEL AUTOR:

1619971908191Santiago Martín Ramírez Chiriboga es economista ecuatoriano por la Universidad San Francisco de Quito con más de 10 años de experiencia profesional y 5 años especializándome en créditos para el desarrollo social, ambiental y de infraestructura.  Con una Maestría en Ciencias de Economía por la Universidad de Amsterdam de los Países Bajos y un Máster en Finanzas por la EUDE Business School de España.  Recientemente he logrado el título de Master Internacional en Proyectos de Colaboración Público-Privados emitido por Structuralia y validado por la Universidad Isabel I en España.

He desempeñado funciones económicas, financieras, estadísticas y de estrategia en las áreas de riesgo, crédito e inversiones, inteligencia de mercado, gerencia de programas y proyectos, desarrollo social y ambiental, y asistencia técnica en bancos de desarrollo, el Ministerio de Economía y Finanzas de Ecuador, y el Programa de las Naciones Unidas para el Desarrollo – PNUD.  Actualmente me desempeño como Experto en Estructuración y Riesgos de Asociaciones Público-Privadas (PPP´s en inglés) para el Departamento del Tesoro de los Estados Unidos en su misión de apoyo al Gobierno del Ecuador.

TESTIMONIO DEL AUTOR:

1. ¿Por qué elegiste Structuralia?

«Este programa lo elegí luego de qué investigando en internet representaba la mejor opción en cuanto a costo beneficio pues el precio es accesible, especialmente con las oportunidades de becas OEA, la temática y cursos son bastante específicos y por lo tanto profesionales, y su plataforma web para aprendizaje funcional y amigable desde el computador y el teléfono. Además, al explorar sobre Structuralia, me atrajo que es una institución dedicada en buena medida a la Ingeniería por lo cual, desde mi ámbito financiero y económico representa una oportunidad ya que las Asociaciones Público Privadas esencialmente requieren de conocimientos económicos, de ingeniería, finanzas y legales.«

2. ¿Qué es lo que más destacarías del máster?

«Lo más destacable del Master es el Trabajo de Fin de Master. Dentro de los cursos existe mucha literatura, y me tomé el tiempo para intentar absorber todo el contenido e ir relacionándolo con la literatura previa y mi experiencia profesional. Llegado el Trabajo Fin de Master, al requerir un análisis bancario sobre los pliegos de un proyecto de carretera de Colaboración Público-Privado, inicialmente pensé que era un desafío fuerte ya que representa las actividades reales que un banco de inversión requeriría. Sin embargo al realizarlo me dí cuenta que mi criterio se había fortalecido y las herramientas aprendidas fueron de completa utilidad para producir un buen trabajo, profesional y a la altura de cualquier analista senior de un banco de inversión para proyectos de Asociación Público Privado e Infraestructura mediante Project Finance.«

3. ¿En qué te ha ayudado o crees que te podría ayudar en tu actual o futuro desarrollo profesional?

«Realizar el Máster me ayudó a fortalecer y complementar mis conocimientos en esta materia tan específica y de escaza oferta académica Además me ayudó a tener conocimientos sobre las diferentes pespectivas de los diversos integrantes (inversionistas, industriales, Estado) las cuales son en muchas ocasiones contrarias pero existe un punto de equilibrio en donde los incentivos se alinean para todos. Finalmente espero que estos conocimientos que me han permitido especializarme en una temática compleja y poco conocida me abran puertas para alcanzar oportunidades de trabajo internacional que es lo que anhelo.»

]]>
https://blog.structuralia.com/proyecto-tfm-licitacion-en-proyecto-publico-privado-de-carreteras/feed 0
Proyecto TFM: Modelo para la detección de fraudes en transacciones https://blog.structuralia.com/proyecto-tfm-modelo-para-la-detecci%c3%b3n-de-fraudes-en-transacciones https://blog.structuralia.com/proyecto-tfm-modelo-para-la-detecci%c3%b3n-de-fraudes-en-transacciones#respond Tue, 22 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-modelo-para-la-detecci%c3%b3n-de-fraudes-en-transacciones

Descubre cómo un alumno ha desarrollado un modelo innovador para detectar fraudes en transacciones y combatir los ciberataques en este TFM.

Actualmente, con el avance de la tecnología y el acceso a Internet, los pagos han evolucionado y existen diferentes formas de realizarlos, ya sea de manera física o virtual. Así como los pagos han ido cambiando para adaptarse a las necesidades y comodidades de clientes y comercios, los ciberdelincuentes también han ido evolucionando. A pesar de las diferentes medidas de seguridad que adoptan las entidades financieras, los fraudes en medios de pagos es una problemática que se enfrenta día con día.

Las entidades financieras y emisores de medios de pago deben evolucionar en conjunto con las necesidades del sector, hacer uso de la creciente tecnología y la disposición de datos para establecer medidas de seguridad y establecer medidas de detención temprana de fraudes.

Creación de modelo para la detección de fraudes en transacciones en tarjetas de crédito

Este interesante TFM elaborado Magaly Fonseca ex-alumna del Máster en Big Data y Business Analytics en Structuralia nos profundiza en esta temática tan importante hoy creando un «Modelo para la detección de fraudes en transacciones de tarjetas de crédito». 

1. Elección de Dataset

Para la elaboración de este trabajo de fin de master se seleccionó un dataset, de los disponibles en la página Kaggle, el cual cuenta con información para trabajar con el objetivo de entrenar un modelo de aprendizaje capaz de detectar casos de fraudes en las transacciones. El dataset elegido se llama card_transdata el cual contiene información de transacciones con tarjetas de crédito.

El dataset es un archivo de extensión csv y consta de 8 columnas. Descritas a continuación:

  • Distance_from_home: la distancia desde casa respecto a donde ocurrió la transacción.

  • Distance_from_last_transaction: indica la distancia entre el punto de la transacción con respecto a la última transacción registrada, es decir, la transacción anterior.
  • Radio_to_median_purchase_price: es la relación entre el monto de la transacción y el precio medio de compra del cliente.
  • Repeat_retailer: indica con 1 si la transacción se realizó desde el mismo minorista y con 0 si no.
  • Used_chip: en esta columna se indica con 1 si en la transacción se utilizó el chip de la tarjeta de crédito y con 0 si no se utilizó.
  • Used_pin_number: en este campo se señala con 1 si en la transacción se usó el número de pin y con 0 en caso contrario.
  • Online_order: se indica con 1 si la transacción corresponde a un pedido en línea y 0 si no fue así.
  • Fraud: indica si la transacción fue identificada como fraude o no, al igual que las columnas anteriores con los valores 1 para los casos fraude y 0 para los no fraude.

2. ETL con Trifacta

Para el proceso de extracción, tratamiento y carga de los datos (ETL) se hace uso de la herramienta Trifacta. Para iniciar el proceso se carga el dataset card_transdata.csv en la herramienta y se crea el flujo con el nombre de “datos de transacciones”.

Como primer paso en el proceso de transformación se realiza el perfilado de datos, con el fin de conocer a fondo el contenido del dataset y verificar la calidad de los datos con el objetivo de determinar las transformaciones que deban realizarse para poder trabajar con los datos y obtener resultados confiables.

Imagen 1 (1) (1)Imagen 1. Verificación de la calidad de los datos iniciales en Trifacta.

Según se muestra en la imagen anterior, los datos de las 8 columnas del dataset se encuentran con una buena calidad ya que la barra indicadora en todos los casos se encuentra en verde, lo que se traduce en que los datos están correctos, coinciden con el formato de la celda y no hay valores inválidos ni vacíos. Se puede apreciar además que el dataset tiene dos tipos de datos: enteros y decimales. Por lo tanto, se procede a finalizar el proceso de ETL, corriendo el job en Trifacta para obtener el dataset y continuar con la parte analítica del mismo.

3. Estudio estadístico

Parte importante al trabajar con datos es conocerlos y realizar un estudio analítico que nos permita tomar las mejores decisiones para el tratamiento de los mismo, para dicho proceso se realizó el análisis en Python.

1. Análisis EDA

Imagen 2 (1) (1)Imagen 2. Gráficos de las variables categóricas.

Gracias a los gráficos se puede observar que el 88.2% de las transacciones se realizaron en el mismo minorista que la compra anterior. En el 35% de las transacciones se utilizó el chip. En el 10.1% de las compras se usó el pin y el 65.1% de las transacciones fueron compras en línea. Por último, el 8.7% de las transacciones son fraude.

Se realizan boxplot para las variables continuas, para observar la distribución de los datos de dichas variables:

Imagen 3 (1)Imagen 3. Boxplot de las variables continuas.

En las tres variables se pueden observar que existen valores atípicos que sobresalen del resto de datos, al considerar la descripción de las variables, a saber: distancia desde casa, distancia desde la última transacción y razón respecto a la media de compra; además tomando en cuenta que lo que se desea más adelante es entrenar un modelo que prediga si la transacción corresponde o no a un fraude, estos valores atípicos podrían representar movimientos de fraude por lo que se determina que deben mantenerse.

2. Estudio de correlaciones

Parte importante del análisis es realizar un estudio de correlaciones para observar si existe relación entre las diferentes variables que componen el dataset. Debido a que se tiene variables continuas y categóricas se utiliza el método de Spearman, que se puede utilizar para ambos tipos de variables:

Imagen 4 (1)Imagen 4. Correlación de las variables

En el resultado se puede apreciar una fuerte correlación (0.6) entre las variables distancia desde casa y si la compra se realizó en el mismo minorista. Además, se puede apreciar un adelanto de las variables que influyen en la variable de nuestro interés (fraude) donde la razón respecto a la media de compra es la variable que tiene mayor correlación con fraude (0.3) aunque el valor no es tan alto, le sigue la variable compra en línea con 0.2 y distancia desde casa con 0.1. Un punto importante resalta de este análisis, aparecen dos variables con correlación negativa con fraude, las cuales son uso de chip y uso de número de pin ambas con un valor de -0.1 lo que se podría interpretar que el uso de esto dos métodos de seguridad son efectivos para evitar el fraude en las transacciones.

Como último paso del análisis estadístico se realizan pruebas de hipótesis (anova) para corroborar la influencia o no de las variables en nuestra variable de interés que es el fraude, se muestra el resultado:

Imagen 5 (1)Imagen 5. Resultado de Anovas

Como se puede apreciar, la única variable que tiene un valor mayor a 0.05 es si la compra fue en el mismo minorista, por lo que se rechaza la hipótesis nula de que la variable es influyente. El resto de variables sí son influyentes.

4. Visualización

Una vez realizado el proceso de ETL y el análisis estadístico de los datos disponibles, se procede a cargar el dataset en PowerBI para la creación de un dashboard que permita visualizar la información disponible:

Imagen 6 (1)Imagen 6. Carga del dataset a PowerBI.

Una vez cargada el dataset, se procede a realizar algunas transformaciones de los datos, solamente para facilitar la visualización, dichas transformaciones corresponden al tipo de dato de las columnas con información booleana, se pasa de 0 y 1 a tipo “true/false” y en el caso de la columna Fraude se cambia el tipo de dato a texto y se reemplazan los 0 por la palabra “no” y los 1 por “si”. Cabe indicar que estas transformaciones se realizan solamente para efectos de facilitar la visualización, pero no modifican la fuente de los datos (el dataset).

Con las transformaciones descritas anteriormente, se procede a crear el dashboard con la información relevante para el caso en estudio:

Imagen 7 (1)

En el dashboard se puede visualizar como dato principal la cantidad total de fraudes detectados, que corresponde a 87403 casos; lo cual representa el 8.74% de las transacciones, fácilmente observable en el gráfico de pastel.

Además, se muestra una tabla en la que se compara las medianas de las variables numéricas para los casos fraude respecto a los no fraude, en dicha tabla se puede apreciar una diferencia significativa en las medianas de la variable “razón respecto a la media de compra” en los casos de fraude (5.07) en comparación a las transacciones no fraudulentas (0.91); también existe una diferencia importante en las medianas de la variable “distancia desde casa”, ya que en los casos de fraude la mediana es mucho mayor que los casos de no fraude; mientras que para la variable “distancia desde la última transacción” la diferencia de las medianas no es significativa (0.2).

Por último, se muestran 4 gráficos de barra, uno para cada variable booleana relacionadas a la variable fraude. Se puede observar fácilmente en ellos que para los casos de fraude la mayoría de las transacciones se realizaron en el mismo minorista, también se aprecia que la mayor proporción de fraudes se realizaron en compras en línea. Además, se puede apreciar que las medidas de seguridad como el uso del chip y el número de pin son efectivas para la prevención de fraudes, siendo el uso de numero de pin más efectiva.

5. Construcción de modelo de detección de fraudes

Con el objetivo de realizar un modelo de detección de fraudes, lo cual sería un modelo de aprendizaje de clasificación. En primera instancia se procede a determinar las variables a utilizar, como se determinó al final del análisis estadístico, las variables que son influyentes para determinar si es fraude o no son todas excepto si la compra fue en el mismo minorista. Además, esta variable tenía una alta correlación con la variable distancia desde casa, por lo que solamente se debe utilizar una de ellas, esto representa una razón mas para descartar la variable “repeat_retailer”.

1. Definición de variables de entrada y salida.

Con la información anterior, se procede a definir las variables de entrada y salida como primer paso de la construcción del modelo; se define también los datos de entrenamiento y prueba, siendo de prueba el 30% de los datos; además, se realiza un escalado de los datos.

Una vez definido, se procede a realizar la predicción utilizando diferentes métodos de aprendizaje supervisado.

2. Árbol de decisión

Se realiza una matriz de confusión para verificar la calidad del modelo

Resultado de la matriz de confusión:

Según lo mostrado en la matriz de confusión se procede a calcular las métricas que nos indiquen la calidad del modelo. Tenemos lo siguiente:

TP = 273905

FP = 2

FN = 2

TN = 26091

Accuracy = 0.9999

Se aprecia un accuracy muy bueno; sin embargo, como se apreció en el análisis estadístico los casos de fraude corresponde a un 8.7% de los datos, por lo que se tienen los datos desbalanceados, es decir, se tiene muchos datos de una clase (no fraude) y pocos de otra (fraude). Dado lo anterior, se procede a calcular el F1 score, la cual es la métrica más adecuada para este tipo de casos.

Precision = 0.9999

Recall = 0.9999

F1 score = 0.9999

Se puede apreciar que el F1 score es muy cercano a 1 por lo que se puede concluir que el modelo tiene muy buena calidad y tendrá mucha efectividad al predecir próximas transacciones fraudulentas.

3. Random Forest

Se muestra el resultado de la matriz de confusión.

Como se puede apreciar tiene el mismo resultado que con el árbol de decisión.

4. K-nearest neighbors

Resultado de la matriz de confusión.

Con la matriz anterior se puede apreciar que la calidad de este modelo es menor que la del modelo con el método de árbol de decisión. Se calculan las métricas de evaluación del modelo:

TP = 273713

FP = 194

FN = 500

TN = 25593

Accuracy = 0.9977

Precision = 0.9993

Recall = 0.9982

F1 score = 0.9987

5. Naive bayes

Resultado de la matriz de confusión:

Se puede observar que con este método la calidad del modelo decae aún más en comparación con los modelos anteriores. Se muestran las métricas de evaluación:

TP = 269793

FP = 4114

FN = 10801

TN = 15292

Accuracy = 0.9503

Precision = 0.9850

Recall = 0.9615

F1 score = 0.9731

 6. Comparación de los modelos

Finalmente, a modo de resumen se muestra una tabla comparativa de las métricas de los diferentes modelos utilizados, donde se puede apreciar que el método con mejor métricas y por tanto el que debe usarse es el árbol de decisión con un F1 score de 99.99%

7. Clustering

Otra parte importante para el negocio es categorizar las transacciones, haciendo uso de las ventajas que brinda el machine learning y data mining se procede a realizar el clustering. Para este objetivo se trabajó con las variables numéricas disponibles en el dataset. Como se pudo apreciar en la visualización (dashboard de PowerBI), las variables “distancia desde casa” y “razón respecto a la media de compra” fueron las variables que presentaron mayor variación en las medianas cuando se analizaban por separado los casos fraude respecto a los que no son fraude; es por esta razón que se toman estas dos variables para el proceso de Clustering.

Para determinar la cantidad idónea de cluster se utiliza el método Elbow.

A continuación, se muestran los resultados de dicho método, como se puede apreciar la cantidad de cluster a usar es 3.

Imagen 8. WCSS en función de K (número de clusters).

Una vez definida la cantidad óptima de clusters, se procede a realizar el clustering y a graficar para apreciar la distribución de los datos en cada uno de los clusters:

En el gráfico se puede apreciar un primer cluster (azul) con transacciones que están cerca de casa pero con razón respecto a la media de compra alta. Además, un segundo cluster (rojo) con transacciones que tienen una distancia desde casa media y la razón respecto a la media de compra también media. Por último, un tercer cluster (verde) con razón respecto a la media de compra baja y distancia desde casa alta.

8. Conclusiones

  • El dataset card_transdata tiene una buena calidad de los datos en su fuente original por lo que el tratamiento para los procesos posteriores es mínimo.
  • El 8.7% de las transacciones en estudio corresponde a fraudes.
  • Producto del estudio estadístico, se determina que las variables “distancia desde casa” y “mismo minorista” tienen correlación.
  • Con respecto a fraude, se determinó que todas las variables del dataset son influyentes excepto la variable “mismo minorista”.
  • En el estudio de correlaciones se aprecia cómo las medidas de seguridad adoptadas como uso de chip y uso de número de pin son efectivas para evitar el fraude ya que tienen una correlación negativa con los casos fraude.
  • Se realizan diferentes modelos haciendo uso métodos de aprendizaje supervisado con el fin de detectar casos de fraude, siendo el más efectivo el modelo que utiliza el método árbol de decisión, con un F1 score de 99.99%, por lo tanto, es el modelo que se debe utilizar.
  • Se realizó la categorización de las transacciones en 3 clusters, utilizando las variables continuas “distancia desde casa y “razón respecto a la media de compra”, haciendo uso del método elbow para determinar la cantidad óptima de cluster y utilizando el algoritmo K-Means para el clustering en sí.

El equipo de Structuralia agradece a Magaly Fonseca por su excelente trabajo realizado. ¡Mucho éxito en su carrera profesional y en todos los desafíos que se proponga por delante!


RESEÑA DEL AUTOR:

Formato IG (99)Magaly Fonseca Maroto, graduada en licenciatura en Ingeniería en Producción Industrial del Instituto Tecnológico de Costa Rica. También cursó un técnico en redes de computadoras, además de poseer estudios en Six Sigma Green Belt, Servicio al Cliente y PowerBI. Recientemente ha obtenido un Máster en Big Data y Business Analytics en Structuralia.

Trabaja desde hace 12 años en la empresa estatal de electricidad y telecomunicaciones en Costa Rica ICE (Instituto Costarricense de Electricidad), donde ha liderado diferentes equipos de trabajo técnicos y se encarga de realizar informes de gestión del área y participar en proyectos de mejora.

TESTIMONIO DEL AUTOR:

1. ¿Por qué elegiste Structuralia?

«Elegí Structuralia por la facilidad de estudiar online. El plan de estudio me pareció muy completo y acorde a mis necesidades y además tuve la facilidad de optar por una beca de la OEA.«

2. ¿Qué es lo que más destacarías del máster?

«Lo que destaco del máster en Big Data y Business Analytics es la amplitud de los temas abordados, como profesional en ingeniería industrial sin conocimientos robustos en computación y programación, la manera en que el máster abarca los temas me permitió una mayor comprensión y aplicación. Me parece muy bien que la metodología se centre en que el estudiante entienda a fondo cada uno de los temas con amplio fundamento teórico junto con la práctica, la cual es muy importante para interiorizar lo visto en la teoría.
Además, el hecho de poder ir desarrollando los temas de manera individual según el propio ritmo del estudiante es un punto muy favorable en Structuralia, sumado a la plataforma la cual es muy amigable y la manera en que va indicando el porcentaje de avance del módulo y del máster en general es muy útil».

3. ¿En qué te ha ayudado o crees que te podría ayudar en tu actual o futuro desarrollo profesional?

«Durante mi desarrollo profesional he logrado entender la importancia de contar con los datos de manera rápida, oportuna y eficaz para transformarlos en información que permita la toma de decisiones de una manera robusta y acertada, este máster me ha ayudado a complementar mi carrera como ingeniera industrial y potencializar con los conocimientos en Big Data y Business Analytics, siendo temas que se encuentran en auge estoy segura que el conocimiento adquirido me abrirá muchas puertas para seguir creciendo profesionalmente y contribuir en el desarrollo de la empresa en la que me desenvuelva».

]]>
https://blog.structuralia.com/proyecto-tfm-modelo-para-la-detecci%c3%b3n-de-fraudes-en-transacciones/feed 0
Proyecto TFM: Predicción de series temporales con modelos de IA https://blog.structuralia.com/proyecto-tfm-predicci%c3%b3n-series-temporales-modelos-ia https://blog.structuralia.com/proyecto-tfm-predicci%c3%b3n-series-temporales-modelos-ia#respond Tue, 15 Apr 2025 07:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-predicci%c3%b3n-series-temporales-modelos-ia

Este proyecto TFM optimiza la predicción de series temporales con modelos de IA. Descubre enfoques avanzados para análisis de datos y toma de decisiones.

New call-to-action

Proyecto TFM: Predicción de series temporales con modelos de IA

Este artículo se centra en el Trabajo de Fin de Máster en Big Data y Business Analytics de nuestro ex alumno del Daniel Cano Alvira, que busca explorar el potencial de la inteligencia artificial para predecir movimientos en los índices bursátiles con el objetivo de lograr un rendimiento positivo en los mercados financieros. El proyecto representa posibles aplicaciones de técnicas de inteligencia artificial en el campo de las inversiones, ofreciendo y desarrollando dos posibles perspectivas para afrontar el reto.

Objetivos del TFM

El objetivo del trabajo es la creación de un modelo de predicción de precios para aplicar a los mercados financieros. Para ello se usará Python con el fin de descargar los precios de diversos activos financieros conectándose a Yahoo Finance. No se incluirá el código desarrollado en este post para que no se prolongue demasiado.

Datos del Proyecto

Yahoo Finance es un servicio en línea proporcionado por Yahoo que ofrece una variedad de información financiera de forma gratuita, incluyendo datos sobre acciones, noticias financieras, herramientas de análisis y recursos para el seguimiento de mercados e inversiones.

Si bien no goza de una API oficial, gracias a la gran cantidad de repositorios disponibles en GitHub se podrán obtener los datos de cotizaciones de forma sencilla. El repositorio que se va a emplear se llama yfinance, desarrollado por Ran Aroussi, es la mejor alternativa para Yahoo Finance, si bien cada vez consta de más métodos obsoletos debido a la mejora de la seguridad de la página web contra el webscraping. Para el alcance de este proyecto solo se usará el método “Ticker” y se descargarán los datos de cotización de algunos índices bursátiles de la página de índices mundiales de Yahoo Finance mediante un webscraping muy sencillo. Un índice bursátil es un dato calculado mediante una ecuación sobre unos activos concretos con el objetivo de reflejar las variaciones de valor o rentabilidades de los activos que lo componen. Los datos se devolverán como velas japonesas, este tipo de dato consta de 4 componentes principales para describir el movimiento del precio del activo subyacente. Dichos componentes se explican a continuación junto con el resto de datos disponibles en la tabla obtenida.

  • Date: Fecha y hora de inicio de la vela japonesa. Al descargar velas de intervalo diario existirá una por día y por lo tanto la fecha será diaria. 

  • Open (Apertura): Precio del activo al inicio del intervalo temporal de la vela.
  • High (Máximo): Precio máximo de cotización durante el intervalo temporal de la vela. 
  • Low (Mínimo): Precio mínimo de cotización durante el intervalo temporal de la vela. 
  • Close (Cierre): Precio del activo al final del intervalo temporal de la vela. 
  • Volume (Volumen): Cantidad de contratos que se han transferido en el total de transacciones llevadas a cabo en el intervalo temporal de la vela. 
  • Dividends (Dividendos): Cantidad monetaria retribuida por acción a los dueños de acciones de una empresa. Esto solo aplica cuando se trata de acciones o ETFs. 
  • Stock Splits (División de acciones): Relación se multiplica el número de acciones para tener más disponibles en el mercado o menos. Si es menor a uno se considera una división inversa, en la que se reduce el número de acciones, normalmente con el objetivo de subir el precio. Si es mayor que uno la cantidad de acciones aumenta, bajando el precio y haciéndolas más accesibles. Esto solo aplica cuando se trata de acciones o ETFs. 

Para nuestro caso además se calcularán nuevos datos a partir de los ya mencionados con el objetivo de obtener mayor capacidad de predicción. A continuación, se explican los principales. 

  • Range: Rango de precios de cotización de esa vela, se obtiene restando el máximo menos el mínimo. 

  • Range per unit: Rango en por unidad, se calcula dividiendo el rango (Range) entre el precio de apertura (Open). 
  • Open to Close: Rango entre apertura y cierre, se obtiene restando el precio de cierre (Close) menos el precio de apertura (Open). Cabe destacar que al contrario que el Rango este dato será negativo cuando la cotización descienda. 
  • Open to Close per unit: Rango entre apertura y cierre dividido entre el precio de apertura (Open). 
  • Gap: Diferencia entre el precio de apertura actual y el precio de cierre de la vela anterior. 
  • Gap per unit: Diferencia entre el precio de apertura actual y el precio de cierre de la vela anterior dividida entre el cierre anterior. 
  • Moving Average difference per unit: Diferencia entre el precio de apertura actual y las medias móviles de 10, 20, 50, 100 y 200 periodos entre la media. 
  • Week Day: Número del día de la semana, entre el 0 y el 4 al que pertenece la vela.

Selección del universo de activos a estudiar

Una vez realizado el webscraping de los índices bursátiles se decidió filtrarlos debido a la cantidad inicial. Mediante el análisis de las series temporales de los distintos índices se concluyó que los más operados son los del mercado americano y que hay índices que tienen un rango diario considerablemente inferior a los demás, como son: N225, IXIC, GSPC o AORD. Cabe destacar que el SPY consta de un volumen decente, suficiente volatilidad y un precio correcto para permitir eficiencia en la gestión de riesgo con la operativa real. A continuación, veremos la correlación entre los activos seleccionados.

 Predicción de series temporales con modelos de IA

A partir de la figura se puede observar la alta correlación entre los mismos, no siendo negativa en ningún caso e inferior a 0.5 solo en 3 casos. Dado que los índices proporcionan una visión general de la dirección y la salud de un segmento particular del mercado financiero, cuando dicho índice representa las mejores empresas de un país se suele considerar que su rendimiento será parecido a la salud económica del país. Si se une esto a la alta correlación entre los índices de distintos países se podría considerar que los ciclos económicos se encuentran relativamente sincronizados, probablemente debido a la gran globalización y dependencia internacional. Podemos deducir de todo ello que probablemente los propios índices tengan cierto valor predictivo entre ellos, esta será la hipótesis del segundo caso de estudio que se realizará.

Métricas de valoración de estrategias

Para validar los sistemas de predicción se calcularán las métricas estándar del sector y algunas que personalmente creo pueden ser interesantes y ayudan a la compresión del comportamiento del sistema. Todas estas métricas están basadas en las operaciones pasadas y por lo tanto son puramente orientativas y cambiantes con el tiempo.

1. Rentabilidad

Mide el rendimiento en términos de ganancia neta en relación con el capital invertido. Una rentabilidad positiva indica que el sistema está generando beneficios. 

Rentabilidad=Ganancia NetaCapital Invertido×100

2. Ratio de Sharpe

Evalúa la relación entre el rendimiento adicional obtenido por asumir riesgos y la volatilidad del sistema. Un ratio de Sharpe alto indica un mejor rendimiento ajustado al riesgo. En la práctica, el rendimiento de los bonos del gobierno a corto plazo, como los bonos del Tesoro de Estados Unidos con vencimientos de tres o seis meses, es comúnmente utilizado como una aproximación de la tasa libre de riesgo. Esta elección se basa en la suposición de que estos bonos son relativamente seguros y líquidos. Ya que esto queda fuera del ámbito de estudio de este trabajo se va a usar una tasa libre de riesgo igual a 0 que sería el equivalente a tener el dinero en la cuenta del banco.

Ratio Sharpe=Rendimiento Esperado – Tasa Libre de RiesgoVolatilidad×100

3. Ratio de Sortino

Se trata de una métrica muy similar al ratio de Sharpe pero en la cual en vez de emplear la volatilidad total del sistema solo se tendrá en cuenta la de las posiciones negativas.

Ratio de Sortino=Rendimiento Esperado – Tasa Libre de RiesgoDesviación Estándar Negativa×100

4. Máxima pérdida

Mide la mayor disminución del balance de la cartera desde el máximo. Cuanto menor sea mayor será la estabilidad del sistema.

Máxima Pérdida=1-Balance ActualBalance Máximo×100

5. Porcentaje de operaciones ganadoras

Probabilidad de que una operación cualquiera sea ganadora.

Probabilidad de Ganar=Número de Operaciones ExitosasNúmero Total de Operaciones×100

6. Ratio de beneficio entre riesgo

Evalúa la relación entre las ganancias y las pérdidas, ayudando a determinar si el sistema está generando recompensas proporcionalmente mayores a los riesgos asumidos. 

Ratio Beneficio-Riesgo=Beneficio Promedio por OperaciónPérdida Promedio por Operación

7. Esperanza matemática

Representa el promedio ponderado de todos los posibles resultados de una variable aleatoria, tomando en cuenta la probabilidad de que cada resultado ocurra. En el contexto financiero, la esperanza matemática puede utilizarse para calcular el rendimiento esperado de una inversión, ayudando a los inversores a tomar decisiones informadas sobre dónde asignar sus recursos. 

Esperanza=(Probabilidad de Ganar * Beneficio Promedio por Operación –

Probabilidad de Perder * Pérdida Promedio por Operación)×100

Siendo: Probabilidad de Perder = 1-Probabilidad de Ganar

De la ecuación previa se puede entender la relación entre la probabilidad de ganar y el ratio de riesgo. Habrá un punto límite tras el cual la esperanza sea negativa para cada valor de probabilidad de ganancia puesto que cuanto menor sea mayor tendrá que ser el retorno de la inversión en relación a la pérdida (ratio de riesgo) para seguir siendo rentable.

8. Tamaño de Kelly

Fórmula utilizada en la teoría de la gestión de capital y en la teoría de la información para determinar el tamaño óptimo de una serie de apuestas. Es aplicable en situaciones donde se realizan apuestas o inversiones sucesivas, busca maximizar el crecimiento del capital a largo plazo. Es importante destacar que el Criterio de Kelly es una estrategia agresiva y, si bien puede maximizar el crecimiento a largo plazo, también puede llevar a la pérdida de una gran parte del capital en el corto plazo si las estimaciones de las probabilidades son inexactas. 

Kelly=Probabilidad de Ganar -Probabilidad de PerderRatio Beneficio-Riesgo×100

9. Porcentaje de tiempo en el mercado

Relación entre la cantidad de días que se tienen operaciones en mercado y la cantidad de días que se ha aplicado el sistema. Se suele considerar mejor cuando el porcentaje es menor ya que se está expuesto a menos riesgos y menos comisiones, en caso de que haya comisiones de mantenimiento.

Tasa de Exposición=Tiempo con Posiciones AbiertasTiempo de Ejecución del Sistema×100

Primer caso de estudio

El primer intento de predicción consistirá en la aplicación de un modelo en inteligencia artificial basado únicamente en las características derivadas del precio del propio activo. Se hará una comparativa sobre la aplicación de los modelos: 

  • Regresión Lineal
  • Regresión Logística
  • K Vecinos Cercanos (K Nearest Neighbours or KNN)
  • Ingenuo Bayes (Naive Bayes)
  • Red Neuronal (Neural Network)
  • Bosque Aleatorio (Random Forest)
  • Máquina de Vector de Soporte (Support Vector Machine o SVM)

Si bien se ha desarrollado el código de dichos modelos en vez de usar las librerías más comunes no se publicará para no extender el post demasiado. Si se quiere acceso consultar al autor.

Para no extender la duración del proyecto se realizó una pequeña optimización antes de comparar los modelos, a continuación se mostrarán 3 gráficas distintas que se usarán para comparar los resultados con datos de entrenamiento y los de prueba con el objetivo final de identificar posibles sobreoptimizaciones.

La primera gráfica muestra la variación de la probabilidad de ganar entre el resultado de la predicción con datos de prueba y los datos de entrenamiento. Se puede deducir que cuanto más cercano a 0 sea el valor menor será el sobre ajuste. En las líneas de nivel proyectadas en el plano inferior se puede apreciar que el modelo KNN es el más sobre ajustado de todos mientras que los modelos de Regresión Lineal y Red Neuronal son los menos sobre ajustados, llegando a desenvolverse mejor con los datos de prueba que con los de entrenamiento en algunos activos.

Predicción de series temporales con distintos modelos de IA 3

 

En la siguiente figura se puede observar la diferencia en la esperanza matemática obtenida con los datos de entrenamiento y los datos de prueba. Dado que la probabilidad de ganar afecta a esperanza matemática se puede apreciar que los modelos en los que menos varía dicha métrica entre el entrenamiento y los datos de prueba son los mismos que en la gráfica previa. Si bien el modelo de Regresión Lineal es el que menos varía, al tener en cuenta todos los activos el modelo KNN vuelve a ser el más sobre ajustado, reafirmando así lo deducido previamente.

Predicción de series temporales con distintos modelos de IA 2

 

Los modelos Naive Bayes y KNN son los que menor esperanza matemática media obtienen, como se puede ver en la siguiente gráfica. Cabe resaltar que los modelos de Regresión Lineal, Redes Neuronales y SVM son los que tienen menos activos con esperanza matemática negativa, haciendo que sean los más polivalentes. No se han añadido los resultados aplicando el modelo PCA sobre las características usadas puesto que los resultados han sido peores de los obtenidos sin su aplicación.

Predicción de series temporales con distintos modelos de IA 4

 

Por último se calculará la evolución del balance de cada modelo para cada activo estudiado.

Se considerará un capital inicial de 100.000,0$ y una asignación del 100 % a cada uno de los modelos. Dado que la gestión del riesgo queda fuera del alcance de este trabajo se operará con el capital total cada vez que se realice una operación. Además, se considerarán solo las operaciones en largo y unas comisiones nulas. En la figura se puede observar un gráfico para cada activo con la correspondiente curva de balance para cada modelo entrenado. Se puede apreciar que de forma general ningún modelo destaca, pero que hay modelos que operan relativamente bien los índices americanos y podría merecer la pena profundizar en ellas e introducir estrategias de gestión de riesgo.

Cabe destacar que solo se han usado dos años de datos para el estudio, que dichos años coinciden con un año de recesión y otro de inicio de expansión debido a las políticas llevadas a cabo por los bancos centrales. Sería conveniente llevar a cabo un estudio sobre mayor cantidad de datos e incluir un test de walk forward.

Segundo caso de estudio

El segundo ejercicio consistirá en la predicción de los precios del SPY, un ETF que replica el comportamiento del SP500. La idea detrás de este ejercicio se basa en la diferencia horaria entre los diferentes mercados alrededor del mundo. Dado que el mercado asiático ha cerrado cuando el mercado americano abre sería coherente pensar que la sesión de ese día podría verse afectada por el comportamiento de los mercados que operan en husos horarios anteriores. Se dividirán los datos en partes iguales, siendo la primera mitad los datos de entrenamiento y la segunda mitad los datos a predecir. Además, se mantendrá la misma gestión operativa que en el ejercicio anterior. 

En este caso los modelos estudiados serán los siguientes:

La a continuación presenta un análisis comparativo de los modelos en términos de las métricas previamente definidas. Se puede observar que diferentes modelos destacan en diferentes métricas, resaltando la importancia de considerar múltiples criterios al evaluar estrategias financieras.

Se ha decidido tomar como referencia la estrategia de mantener el capital total invertido en el activo, comúnmente llamado “Buy & Hold”. Para esta estrategia se obtiene un beneficio de 104,035.87$ con una rentabilidad del 104.03 %. El Sharpe es 0.84, y el Sortino es 0.062. Además la máxima pérdida (Max. DrawDown) durante el periodo de prueba sería del 22.94 % y la probabilidad de ganar del 56.17 %. De forma general la aplicación del PCA no parece aportar valor, siendo la única excepción el modelo Random Forest. Aunque los beneficios pueden ser más bajos con el uso del PCA, la reducción en la dimensionalidad puede ser útil en términos de simplicidad y eficiencia computacional. El modelo de Regresión Logística es el que menor rentabilidad obtiene, esto se debe a la poca frecuencia operativa, siendo el tiempo de mercado cercano al 3 %. Esto y la alta fiabilidad lo convierten en el modelo con menor pérdida máxima y mayor ratio de Sharpe.

Predicción de series temporales con distintos modelos de IA 6

Por el otro lado el modelo de K Vecinos más Cercanos (KNN) es el que logra mayor rentabilidad, si bien esto se debe al sobre ajuste. Esto se da cuando el modelo se ajusta demasiado a los datos de entrenamiento, generando patrones poco generalizados. Se puede observar en la figura superior. Durante la primera mitad (entrenamiento) el capital aumenta de forma constante sin casi oscilación mientras que en los datos de prueba el capital oscila entre un máximo y un mínimo de forma constante.

La mejor estrategia de cara a su operación real sería la del modelo de Regresión Lineal, a la cual se le podrían incluir las señales producidas por el modelo de Regresión Logística con el objetivo de lograr así mayores beneficios. En este caso concreto las señales del modelo de Regresión Logístico se dan también por el modelo de Regresión Lineal por lo que no aportaría nada a menos que se tuviese en cuenta en la estrategia de gestión de riesgo.

Predicción de series temporales con distintos modelos de IA 6

En la figura anterior se puede comparar el retorno y la pérdida acumulada en cada instante de la estrategia final y la estrategia con “Buy & Hold”. Como se puede apreciar la máxima pérdida es casi un tercio de la de “Buy & Hold” mientras que la rentabilidad final de la estrategia es 1.4 veces la de “Buy & Hold”. Todo ello permitiéndonos entrar a mercado solo la mitad de las veces.

Conclusiones

El objetivo del presente proyecto era estudiar la viabilidad de modelos de inteligencia artificial en la predicción de precios de activos operados en los mercado financieros. Se trata de un proyecto que se ha centrado más en los modelos y su comparación que en la gestión del capital y el porfolio. Si bien se ha demostrado que por muy de moda que esté la inteligencia artificial no es el santo grial, se ha conseguido obtener estrategias que pueden merecer la pena. En el primer ejercicio se ha visto que los modelos a menudo fracasarán en su tarea si se les alimenta solo con datos derivados de lo que se quiere predecir. Solo en los mercados más líquidos lograban una cierta precisión. El último ejercicio ha demostrado la necesidad de evitar sobre ajustar los modelos ya que pueden provocar un desastre cuando se apliquen a una operativa real. Además, se ha dejado en evidencia la importancia de la ingeniería de factores para obtener variables con mayor capacidad predictiva. La inteligencia artificial convive con nosotros en el día a día y lleva décadas siendo aplicada en los mercados financieros. Hará falta mucho estudio y recursos para poder obtener un sistema que pueda hacer frente a los retornos de los referentes del sector como Medallion Fund.

En el futuro sería conveniente incluir gestión operativa y de capital puesto que hay muchas variables que dependen de ello y se han supuesto en este trabajo. Algunas ideas por las que empezar podrían ser: añadir límite de pérdidas y de ganancias a las posiciones en vez de mantenerlas abiertas durante todo el día y definir un algoritmo para asignar el porcentaje de la cuenta a arriesgar en cada momento. Por otro lado, sería conveniente definir el tiempo a esperar para volver a entrenar al modelo, dado que para mantener al modelo actualizado es conveniente entrenarlo con datos nuevos. Habría que definir cada cuánto se debe entrenar y la cantidad de datos a utilizar, puesto que puede que patrones pasados contradigan a patrones actuales y deterioren la capacidad predictiva del modelo.


Reseña del autor

Proyecto TFM Daniel CanoDaniel Cano, es Graduado en Ingeniería de la Energía por la Universidad Politécnica de Madrid y recientemente a cursado el Máster en Big Data y Business Analytics. Actualmente desarrolla sus labores profesionales en Técnicas Reunidas S.A., concretamente en el departamento de Transformación Digital. Daniel tiene tu propia página personal de proyectos, «One Made«. 

Testimonio del autor

1. ¿Por qué elegiste Structuralia?

«Mi empresa me dio la opción de poder formarme y especializarme con un máster, al tener que elegir entre varias opciones el Máster de Structuralia fue el que más me atrajo de todos.»

2. ¿Qué es lo que más destacarías del máster?

«Lo que más destacaría es que entrega muy buena documentación y material en el Máster en Big Data y Business Analytics.»

3. ¿En qué te ha ayudado o crees que te podría ayudar en tu actual o futuro desarrollo profesional?

«La realización del este Máster me ha ayudado a entender mejor y reforzar conceptos que ya sabía. También he podido aprender sobre nuevas herramientas de Big Data.«


New call-to-action

 

]]>
https://blog.structuralia.com/proyecto-tfm-predicci%c3%b3n-series-temporales-modelos-ia/feed 0
15 Comandos de Autocad en español e inglés https://blog.structuralia.com/comandos-de-autocad https://blog.structuralia.com/comandos-de-autocad#respond Mon, 31 Mar 2025 07:00:00 +0000 https://blog.structuralia.com/?p=8393 En el mundo de la arquitectura, donde la precisión y la eficiencia son primordiales, Autocad se ha convertido en una herramienta indispensable. Desde su creación, ha permitido a arquitectos y diseñadores transformar ideas en planos detallados y ejecutables. Dentro de este proceso, el uso de comandos de Autocad es clave para optimizar el flujo de trabajo, permitiendo a los profesionales del sector trabajar con mayor rapidez y precisión. En este artículo, exploraremos la historia de Autocad, su evolución en el campo de la arquitectura, y algunos de los comandos más útiles para mejorar la productividad en este software.

Breve Historia de Autocad

Lanzado por Autodesk en 1982, Autocad revolucionó el diseño asistido por computadora al proporcionar a los arquitectos una herramienta poderosa y versátil para la creación de planos y modelos 3D. En sus inicios, Autocad fue una solución disruptiva, permitiendo que los proyectos de arquitectura fueran diseñados y modificados digitalmente, lo que representaba un avance significativo en comparación con los métodos tradicionales de dibujo a mano. Con el paso del tiempo, el software ha evolucionado constantemente, incorporando nuevas funcionalidades que han mantenido su relevancia en el sector. Hoy en día, Autocad sigue siendo una de las herramientas más utilizadas en el diseño arquitectónico, gracias a su capacidad para adaptarse a las necesidades cambiantes de los profesionales del sector. Su continua actualización y la introducción de nuevos comandos de Autocad han permitido que el software se mantenga a la vanguardia en el desarrollo de proyectos arquitectónicos.

Representaciones complejas planimétricas realizadas con comandos de Autocad. Web.Autocad

Comandos de Autocad Esenciales

Trabajar eficientemente en Autocad requiere un buen dominio de sus múltiples comandos. Estos comandos permiten a los arquitectos y diseñadores realizar tareas repetitivas con mayor rapidez, reduciendo errores y aumentando la precisión en los proyectos. A continuación, te presentamos una lista de 15 comandos de Autocad en español e inglés que te ayudarán a mejorar tu flujo de trabajo:

  1. Línea (Line): Dibuja una línea recta entre dos puntos.
  2. Círculo (Circle): Crea un círculo a partir de un punto central y un radio.
  3. Desfase (Offset): Genera líneas o curvas paralelas a una distancia especificada.
  4. Cortar (Trim): Recorta segmentos de líneas y curvas en la intersección con otros objetos.
  5. Extender (Extend): Prolonga líneas o curvas hasta alcanzar otra línea o borde.
  6. Empalme (Fillet): Redondea o bisela la intersección entre dos líneas o arcos.
  7. Array (Matriz): Crea copias de un objeto en una disposición rectangular o polar.
  8. Descomponer (Explode): Descompone un objeto compuesto en sus partes individuales.
  9. Unir (Join): Une varias líneas, arcos o polilíneas en un solo objeto.
  10. Mover (Move): Desplaza objetos de un lugar a otro dentro del dibujo.
  11. Copiar (Copy): Duplica un objeto o grupo de objetos dentro del mismo dibujo.
  12. Girar (Rotate): Rota un objeto alrededor de un punto específico.
  13. Escalar (Scale): Cambia el tamaño de un objeto según un factor de escala.
  14. Alinear (Align): Alinea y escala objetos en función de otros objetos existentes.
  15. Mirar (Mirror): Crea una copia especular de un objeto a lo largo de un eje definido.

El dominio de estos comandos de Autocad no solo agiliza el proceso de diseño, sino que también mejora la precisión y calidad del trabajo arquitectónico.

BIM y Autocad: Una Sinergia Necesaria

En la actualidad, la metodología BIM (Building Information Modeling) se ha consolidado como una de las principales tendencias en el sector de la arquitectura y la construcción. Esta metodología permite la creación y gestión de un modelo digital de un edificio, integrando información detallada que abarca desde el diseño conceptual hasta la operación y mantenimiento de la construcción. Autocad, gracias a su versatilidad, se complementa perfectamente con herramientas BIM, permitiendo a los arquitectos diseñar con precisión mientras colaboran en un entorno multidisciplinario. La compatibilidad entre comandos de Autocad y las funciones BIM facilita la integración de ambas tecnologías, lo que resulta en proyectos más eficientes y coordinados.

Interfaz del diseño de un edificio utilizando comandos de Autocad. Autodesk

Autocad ha demostrado ser una herramienta fundamental en el desarrollo de proyectos arquitectónicos, y su constante evolución asegura que siga siendo relevante en el futuro. Sin embargo, el éxito en este campo no solo depende de dominar este software, sino también de mantener una formación continua y especializada. A los arquitectos e ingenieros les recomendamos explorar el catálogo de cursos y maestrías online que ofrece Structuralia, enfocándose en temas de arquitectura y BIM. Estas herramientas y conocimientos adicionales no solo les permitirán ser más competitivos en el mercado, sino que también contribuirán al desarrollo de soluciones innovadoras para la sociedad del futuro.

]]>
https://blog.structuralia.com/comandos-de-autocad/feed 0
Proyecto TFM: Tecnologías de registro distribuido aplicadas a la identidad digital y auto soberana https://blog.structuralia.com/proyecto-tfm-tecnolog%c3%adas-de-registro-distribuido-aplicadas-a-la-identidad-digital-y-auto-soberana https://blog.structuralia.com/proyecto-tfm-tecnolog%c3%adas-de-registro-distribuido-aplicadas-a-la-identidad-digital-y-auto-soberana#respond Fri, 28 Mar 2025 08:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-tecnolog%c3%adas-de-registro-distribuido-aplicadas-a-la-identidad-digital-y-auto-soberana

¿Cómo podemos comprobar la importancia de la Identidad en una sociedad cada vez más digitalizada? Este interesante TFM profundiza en ello.

transformación digital

Proyecto TFM: Tecnologías de registro distribuido (DLT) aplicadas a la identidad digital y auto soberana (SSI)

El trabajo realizado por Borja Lanza ex-alumno el Máster en Ciberseguridad y Gestión de la Información en Structuralia y tutorizado por Óscar García-Rama abordó las sinergias que pueden aportar las tecnologías de registro distribuido (DLT) cuyo exponen más popular es blockchain, a la gestión y seguridad de las identidades digitales.

Las cadenas de bloques al estar diseñadas para asegurar la trazabilidad y transparencia de las transacciones, al firmarse mediante el uso de métodos criptográficos, imposibilitan que puedan ser manipuladas o falsificadas por actores maliciosos. Esta inmutabilidad unida a ser sistemas distribuidos, evita la censura y puede favorecer la creación de identidades digitales resuelven los problemas de más de mil millones de personas que actualmente carecen de cualquier tipo de identidad.

Cada vez nuestros datos están más expuestos ya que tenemos que gestionar múltiples identidades o cuentas de usuario. Esto no solo ocurre en redes sociales o páginas webs, sino que para realizar trámites ante las administraciones públicas debemos de contar con medios que nos identifiquen y autoricen a realizar dichos trámites de manera segura y confiable.

Retomar el control de nuestros datos para gestionar quien tiene acceso a ellos y con qué fines es otro de los problemas que idealmente Blockchain puede solventar. Contar con una única fuente de verdad confiable hace mucho más sencillo la autenticación y la verificación de una identidad digital, sin comprometer la privacidad del dueño de la identidad, beneficiando a la ciberseguridad mitigando los riesgos de suplantaciones y robos de identidad.

La investigación aborda desde un marco teórico, el estado del arte sobre las aplicaciones de las tecnologías DLT y específicamente Blockchain a la gestión de la identidad digital, haciendo una revisión de las tecnologías involucradas y las soluciones actuales o futuras en un plazo corto de tiempo.

Objetivos del TFM

Para la realización del TFM se plantearon los siguientes objetivos.

Objetivos teóricos:

    • Realizar un estudio del estado del arte actual de la aplicación de las tecnologías blockchain a la identidad digital.

    • Identificar las aplicaciones disruptivas de las tecnologías DLT y sus casos de uso.
    • Definir buenas prácticas en la aplicación de dichas tecnologías principalmente en los campos de identidad, privacidad y ciberseguridad
    • Resumir las conclusiones obtenidas y detectar futuras tendencias en el campo de estudio de este trabajo.

Personalmente también escogí dicho tema para obtener una visión clara y completa de los conceptos referentes a la identidad digital, sobre todo la identidad auto soberana y de las tecnologías Blockchain y DLT aplicadas a la identidad junto a fundamentos básicos de tecnologías previas.

¿Por qué es tan importante el concepto de identidad para nuestra existencia tanto física como digital?

Definición de Identidad

Algunas definiciones de la DRAE para identidad son

    1. Conjunto de rasgos propios de un individuo o de una colectividad que los caracterizan frente a los demás.
    2. f. Conciencia que una persona o colectividad tiene de ser ella misma y distinta a las demás.

¿Es la identidad es un derecho ligado al ser humano?

Dentro del consenso mundial que es la Declaración Universal de Derechos Humanos (DUDH) de 1948, el término identidad no aparece ninguna vez nombrado en toda la extensión del texto.

Podemos asegurar que si las personas no son correctamente identificadas y cuentan con una identidad única no pueden ejercer los derechos definidos en:

    • Artículo 6: Todo ser humano tiene derecho, en todas partes, al reconocimiento de su personalidad jurídica.

    • Artículo 15.1: Toda persona tiene derecho a una nacionalidad.
    • Artículo 17: Toda persona tiene derecho a la propiedad, individual y colectivamente. 
    • Otros derechos como el matrimonio (Artículo 16), participar en el gobierno de su país (Artículo 21), derecho a seguridad social (Artículo 22), 

Todos estos artículos están relacionados con la identificación de una persona y su acceso a dichos derechos y mantenimiento de un registro que le asegure la defensa de dichos derechos. Por tanto, el derecho de una identidad de una persona es fundamental para el ejercicio de dichos derechos básicos

Imagen 1: Ejemplos de datos relacionados con identidad en 3 contextos diferentes.
Imagen 1: Ejemplos de datos relacionados con identidad en 3 contextos diferentes.

Identidad Autosoberana

Actualmente no existe un consenso pleno de la definición de identidad auto-soberana.

La identidad auto-soberana es el siguiente peldaño más allá de la identidad centrada en el usuario, y esto significa que debe comenzar en el mismo lugar: el usuario tiene que ser el centro de la administración de la identidad. Esto requiere no sólo la interoperabilidad de la identidad de un usuario a través de múltiples localizaciones, con el consentimiento del usuario, sino también un verdadero control del usuario de esa identidad digital, creando una verdadera independencia del usuario.

Para lograrlo, una identidad autosuficiente debe ser transportable; no puede limitarse a un único sitio o ubicación.

Uno de los pioneros de la identidad Christopher Allen en el año 2016, estableció 10 principios para la identidad auto-soberana que se han convertido en una referencia en la materia. 

Dichos principios son:

    1. Acceso: los usuarios deben tener acceso a sus propios datos.

    2. Consentimiento: los usuarios deben aceptar previamente el uso de su identidad por terceros.
    3. Control: los usuarios deben poder controlar sus identidades.
    4. Existencia: los usuarios deben tener una existencia independiente.
    5. Interoperabilidad: las identidades deben poder utilizarse ampliamente.
    6. Minimización: la divulgación de reclamaciones debe reducirse.
    7. Persistencia: las identidades deben ser duraderas.
    8. Protección: los derechos de los usuarios deben ser protegidos.
    9. Portabilidad: la información y los servicios sobre identidad deben ser portables.
    10. Transparencia: los sistemas y algoritmos deben ser transparentes.

Se considera que la identidad auto-soberana es un modelo de identidad digital siempre que cumpla con los siguientes 16 principios. 

    1. Las personas pueden generar sus propios identificadores únicos (control, existencia).

    2. Las personas tienen el control de sus autenticadores (acceso, control, existencia).
    3. Las personas tienen el control de sus credenciales y certificados digitales (acceso, control, existencia).
    4. Las personas pueden recuperar las credenciales y certificados en caso de pérdida o robo de sus autenticadores (acceso, control, existencia, persistencia y protección).
    5. Las personas administran y controlan los datos asociados con su identidad digital (acceso, control).
    6. Las personas pueden hacer divulgaciones selectivas de datos (consentimiento, control, minimización, protección).
    7. La información de identificación personal (IIP) de los individuos se minimiza (minimización, protección).
    8. Las pruebas criptográficas de la propiedad de los identificadores se pueden encontrar en…
    9. una red pública descentralizada (interoperabilidad, persistencia, transparencia).
    10. Las pruebas criptográficas de la propiedad y la validez de las credenciales se pueden encontrar en…
    11. una red pública descentralizada (interoperabilidad, persistencia, transparencia).
    12. El derecho al olvido está garantizado (protección).
    13. Las unidades de gestión de identidad (billeteras digitales) son portables (portabilidad).
    14. Los proveedores de billeteras digitales no tienen acceso a la información sobre el acceso de los individuos a los servicios o las interacciones con otros (acceso, control, protección).
    15. Las copias de seguridad garantizan los niveles máximos de seguridad y privacidad (persistencia, protección).
    16. Las implementaciones cumplen con las políticas regulatorias (protección).

Soluciones de Identidad Digital en Blockchain

El trabajo también analizó algunas de las diferentes soluciones de identidad basadas en blockchain disponibles en junio de 2021.

Aparte de Sovrin e Hyperledger Indy se destaca el desarrollo español impulsado por Alastria.

AlastriaID es el proyecto de Identidad Digital de la Comisión de Identidad de Alastria. Su propuesta de Identidad Digital en Blockchain pretende proporcionar un marco de infraestructura y desarrollo, para llevar a cabo proyectos de Identidad Digital Soberana, con plena validez legal en la zona euro, siguiendo las siguientes premisas:

  • Habilitar un marco para hacer uso de la SSI usando Blockchain, con el Informe Legal SSI eIDAS, también llamado «eIDAS Bridge».

  • Seguir las directrices del Informe del Taller de Identidad Electrónica, del Observatorio y Foro EUBlockchain.
  • Cumplir con el Reglamento eIDAS, según el Reglamento (UE) nº 910/2014 del Parlamento Europeo y del Consejo, de 23 de julio de 2014, relativo a la identificación electrónica y los servicios de confianza para las transacciones electrónicas en el mercado interior y por el que se deroga la Directiva 1999/93/CE.
  • Hacer de la Identidad Digital en Blockchain y el GRPD dos herramientas complementarias, siguiendo las recomendaciones descritas en el Observatorio y Foro EUBlockchain y el estudio del Servicio de Investigación del Parlamento Europeo.

Alastria ID es un modelo maduro que sigue los estándares W3C y ha servido de base al European Self Sovereign Identity Framework  (ESSIF) y a los procesos de estandarización de UNE, CEN/CENELEC, ETSI, ITU e ISO, considerado un estándar de facto. Es Interoperable con ESSIF, proyecto europeo SSI dentro de EBSI e impulsado por el EBP. Actualmente es el estándar UNE 71307. 

Imagen 2: Alastria ID y los 10 principios clave de SSI.
Imagen 2: Alastria ID y los 10 principios clave de SSI.

Pruebas de conocimiento cero (Zero Knowledge Proofs)

Las pruebas de conocimiento cero posibilitan a una parte de una interacción acreditar a otras partes involucradas que una afirmación que realiza es verdadera, sin revelar ninguna información más allá de la validez de la afirmación en sí misma. 

A las partes involucradas se les llama comúnmente demostradores y verificadores, y la afirmación que comparten de manera privada y segura se llama testigo. Su principal objetivo es desvelar el menor número de datos posibles entre las dos partes involucradas. 

Las pruebas de conocimiento cero se utilizar para comprobar que se está en posición de un conocimiento concreto sin revelar ninguna información sobre el conocimiento mismo.

Algunos ejemplos de la aplicación de las ZKP son:

    • Demostrar que una persona es mayor de edad, sin revelar la fecha de nacimiento ni su edad actual.

    • El empadronamiento en una localidad sin mostrar la dirección del domicilio y siendo capaz de usar los servicios del ayuntamiento donde uno reside legalmente. 
    • Demostrar la posesión de una cantidad mínima de dinero para afrontar un pago o una compra, sin mostrar el saldo total o propiedades que sirven de aval. 
    • Demostrar que se tiene unos permisos concretos y licencias que permitan que un vehículo es capaz de circular sin comprometer la privacidad de su propietario.

Las pruebas de conocimiento se utilizan a menudo en la informática para:

    • Probar la propia identidad (por ejemplo, protocolo de autenticación).

    • Probar que uno pertenece a un grupo con privilegios.
    • Demostrar que se ha hecho algo correctamente (realizar un pago).

Para que una prueba ZKP funcione es necesario cumplir determinados parámetros:

    • Exhaustividad: Si la declaración es verdadera, entonces un verificador honesto puede ser convencido de ello por un demostrador honesto.

    • Solidez: Si el demostrador es deshonesto, no pueden convencer al verificador de la solidez de la declaración mintiendo.

    • Conocimiento Cero: Si la declaración es verdadera, el verificador no tendrá idea de cuál es la declaración en realidad.

Conclusiones

La investigación del TFM me permitió comprobar la importancia de la Identidad en una sociedad cada vez más digitalizada y donde las personas, están definidas por diferentes identidades. Estas identidades están en riesgo por diferentes ciber amenazas como pueden ser la usurpación de identidad, el phishing y el robo de credenciales, produciéndose un gran impacto no solo económico cuando se compromete o roban una de nuestras identidades, como puede ser un perfil en una red social.

Por tanto, debemos de ser conscientes de todos los derechos y herramientas que tenemos a nuestra disposición para proteger nuestra información personal que sirve para trazar y analizar nuestros comportamientos con el riesgo de invasión a nuestra privacidad o de vigilancia de nuestros movimientos y pensamientos.

Las tecnologías de registro distribuido (DLT), cuyo máximo exponente es Blockchain, proporcionan la capa tecnológica necesaria para asegurar dicho control de manera segura, resiliente y resistente. Tecnologías que han dado un paso de gigante en estos últimos años, y que están transformando como se intercambia el valor.

Aunque son mayoritariamente conocidas por su aplicación en las criptomonedas su sistema su uso en el campo de la identidad digital es uno de los más revolucionarios, sobre todo en las identidades autosoberanas (SSI). La unión con otras tecnologías como las pruebas de conocimiento zero (ZKP) van a suponer un gran avance en como nos relacionamos en el mundo digital, aportando mayor confianza, seguridad, privacidad y control sobre nuestros datos, a la vez que se asegura la Confidencialidad, Integridad y Disponibilidad de ellos.


En Structuralia agradecemos el enorme desempeño e iniciativa de Borja Lanza y su proyecto TFM. ¿Quieres desarrollar tu futuro profesional igual que Borja? Puedes ingresar a nuestro sitio de Structuralia e investigar la importante cantidad de material formativo en este sector, y adicionalmente la variedad de maestrías especializadas que necesitas para conseguir tus objetivos.


RESEÑA DEL AUTOR:

Formato IG (78)Borja Javier Lanza López es Graduado en Multimedia, Máster Universitario en Aplicaciones Multimedia y Máster Propio de Máster de Inteligencia de Negocio y Big Data por la UOC (Universitat Oberta de Catalunya).

Como profesional de las nuevas tecnologías ha seguido formándose en los últimos avances gracias al Máster en Ciberseguridad y Gestión de Riesgos de la Información avalado por la Universidad Alfonso X el Sabio y el Máster Internacional en Gestión de la Innovación avalado por la Universidad Internacional Isabel I de España ambos impartidos por Structuralia

Desarrolla su carrera profesional como formador y consultor tecnológico centrado principalmente en los campos de Blockchain y Ciberseguridad en proyectos de transformación digital.

TESTIMONIO DEL AUTOR:

1. ¿Qué es lo que más destacarías del máster?

«El Máster en Ciberseguridad y Gestión de Riesgos de la Información proporciona una base amplia y completa sobre las diferentes dimensiones que componen un campo tan amplio y transversal como es la ciberseguridad.«

2. ¿En crees que te va ayudar en tu desarrollo profesional?

» La ciberseguridad es una de las especialidades más demandadas actualmente y con una escasez de profesionales. Contar con una formación especializada y reconocida es una forma de demostrar los conocimientos necesarios para iniciar una carrera en este campo.«

3. ¿Por qué elegiste Structuralia?

«La comodidad y libertad de poder formarse a cualquier hora y en cualquier lugar, más en tiempos difíciles como los actuales, pero con el respaldo de una titulación oficial por una universidad reconocida.

La posibilidad de optar a becas de la Organización de los estados americanos (OEA) es un plus que permite cursar másteres vanguardistas de forma asequible y conocer gente de diferentes países.»

Structuralia celebra a lo largo del todo el curso múltiples master class accesibles a todos los alumnos con profesionales de los diferentes másteres que enriquecen bastante el aprendizaje.

New call-to-action

]]>
https://blog.structuralia.com/proyecto-tfm-tecnolog%c3%adas-de-registro-distribuido-aplicadas-a-la-identidad-digital-y-auto-soberana/feed 0
Proyecto TFM: Proyectos de Arquitectura en Control de Obras 4D https://blog.structuralia.com/proyecto-tfm-proyectos-de-arquitectura-en-control-de-obras-4d-2 https://blog.structuralia.com/proyecto-tfm-proyectos-de-arquitectura-en-control-de-obras-4d-2#respond Wed, 26 Mar 2025 08:00:00 +0000 https://blog.structuralia.com/proyecto-tfm-proyectos-de-arquitectura-en-control-de-obras-4d

¡Un nuevo proyecto TFM! Nos demuestra cómo la metodología BIM y su versatilidad en el mundo de la construcción nos permite constantemente estar innovando el trabajo colaborativo. Como la realización de un proyecto constructivo, lo cual, nos permite la fácil gestión del mismo permitiendo conseguir eficacia y eficiencia en los procesos involucrados.

transformación digital

Descripción del proyecto: Planificación de Proyectos de Arquitectura con Enfoque en Control de Obras 4D

Tras cursar el Máster en BIM aplicado a la Edificación en Structuralia, se realiza este proyecto TFM, que consta de un edificio de apartamentos de (poner niveles) y dos sótanos de parqueos, cada nivel posee 3 apartamentos con un dormitorio y 1.5 baños, el sistema constructivo del proyecto es un sistema mixto con muros de concreto de corte y marcos estructurales. Para la circulación vertical el edificio consta de un módulo de gradas y un ascensor principal. En el ingreso principal se localiza una doble altura que ayuda a mantener la iluminación y ventilación de todos los pasillos que conectan los apartamentos. 

Para poder dar un énfasis a la planeación 4d del proyecto en estudio, como punto principal se inicio el proceso de trabajo con el modelado 3d, este se generó por medio de la herramienta Revit ayudando al control de datos BIM que proporcionaría una mejor gestión en el proceso de costeo 5D.

Proceso de Modelado

Modelo de obra gris:

Utilizando la herramienta de modelado Revit se realizó el levantamiento de todos los elementos estructurales, como columnas, muros de carga, losas y vigas entre otros el cual sirvió como esqueleto principal del edificio. Posterior a ello se realizó el levantamiento de todos los cerramientos del proyecto desde las divisiones exteriores hasta las divisiones entre apartamentos los cuales se realizaron con muros de mampostería de block.

Imagen 1. Modelo izquierdo obra gris y derecho divisiones mampostería
Imagen 1. Modelo izquierdo obra gris y derecho divisiones mampostería

Revit

Modelado de Arquitectura:

Posterior al modelado de la estructura principal y secundaria previamente explicada, se realizó el recubrimiento del proyecto por medio del modelado independiente de acabados finales o terminaciones finales, esto incluye los recubrimientos de pisos, recubrimientos de muros, y cubiertas, también se hizo el levantado de muros de tabiques de tabla-yeso para las divisiones interiores de ambientes en los apartamentos, se agregaron los cielos suspendidos de tabla-yeso en apartamentos y en servicios sanitarios. El nivel detalle alcanzado en estos acabados incluye zócalos y barandillas de vidrio templado, esto para poder ser planificada en una simulación 4D. 

Imagen 2. Modelado de acabados finales, vistas de secciones
Imagen 2. Modelado de acabados finales, vistas de secciones isométricas.

Modelado de instalaciones hidrosanitarias:

Con relación al modelado de instalaciones hidrosanitarias del proyecto se procedió a levantar los sistemas de aguas sanitarias, sistema de agua potable y ventilación de los servicios sanitarios de apartamentos, también se levantó el sistema de aguas de lluvia esto con el fin de poder realizar un análisis de interferencias entre los sistemas hidrosanitarios y el sistema de estructura principal (obra gris). Todas las tuberías modeladas cuentan con una dimensión real que ayuda a poder analizar todos los circuitos de aguas, dando importancia al sistema de aguas negras y de lluvia, el sistema de agua potable se acoplo de acuerdo con la necesidad, teniendo no solo conexiones horizontales sino verticales.

Renderizado

Para la realización de render interiores y exteriores se utilizó la herramienta de Lumión en donde se aplicó diferentes materiales al modelo original para dar mejor realismo a la foto, también se aplicó elementos de ambientación como árboles y vehículos. Para el proceso de renderizado se mandó del software Revit una exportación directa por medio del plugin de Lumión facilitando la interoperabilidad entre ellos.

Análisis de Interferencia

Análisis de interferencias realizadas por medio de Navisworks, utilizando Test, se comparó los modelos de arquitectura e instalaciones sanitarias para identificar potenciales interferencias y realizar los cambios o correcciones respectivos en el modelo. Para poder detectar esto se realizaron varios test en donde se analizó toda la estructura principal y los diferentes sistemas hidrosanitarios, estos conflictos ser devolvieron a Revit y se corrigieron uno por uno, hasta lograr resolver todos, posterior a ellos se volvió a pasar el test hasta poder llegar a tener todo solucionado.

Test Inicial

Test inicial imagen 1Test inicial imagen 2

Test final se puede observar que todas las incidencias han sido resueltas, indicadas con un punto verde. Así también en las imágenes se valida la solución que se dio para que no existiera problemas.

Test Final

Test final imagen 1Test final imagen 2

Planificación 4D y Control de Obras 

Para la elaboración de la planificación 4d se realizó la exportación del modelo 3d elaborado con anterioridad en Revit, en formato IFC para ello se exportaron varios modelos que ayudaron con el proceso de creación de recursos y asignación de elementos.

Se creo un cronograma de ejecución exportando una base del archivo de Project, y complementando de acuerdo al alcance que se requería, agregando tareas adicionales. Cada elemento del modelo fue vinculado a su tarea específica obteniendo del elemento geométrico propiedades de cantidad que ayudaron a generar las secuencias de construcción y estudios de recursos necesarios.

Adicional al modelo y el cronograma de planificación se adjuntaron recursos de maquinaria que mostraron de mejor manera la secuencia constructiva, ingresándole tiempo de instalación y desmonte según lo requería. A continuación, se muestran algunos de los estudios realizados en Synchro Pro.

Syncro Pro

Asignación de elementos tridimensionales a las actividades de cronograma.
Asignación de elementos tridimensionales a las actividades de cronograma.

Control de material concreto de acuerdo con fechas de fundiciones.

Control de material concreto de acuerdo con fechas de fundiciones.Control de material concreto de acuerdo con fechas de fundiciones.

Secuencia de imágenes de reportería semanal de avance de proyecto.Secuencia de imágenes de reportería semanal de avance de proyecto.

Secuencia de imágenes de reportería semanal de avance de proyecto.

Secuencia de imágenes de reportería semanal de avance de proyecto.

Secuencia de imágenes de reportería semanal de avance de proyecto.Secuencia de imágenes de reportería semanal de avance de proyecto.

Secuencia de imágenes de reportería semanal de avance de proyecto.


En Structuralia agradecemos el enorme desempeño e iniciativa de Pablo Mota y su proyecto TFM. ¿Quieres desarrollar tu futuro profesional igual que Pablo? Puedes ingresar a nuestro sitio de Structuralia e investigar la importante cantidad de material formativo en este sector, y adicionalmente la variedad de maestrías especializadas que necesitas para conseguir tus objetivos.


RESEÑA DEL AUTOR:

Formato IG (65)-1Pablo Mota, Máster en BIM aplicado a la Edificación impartido por Structuralia y avalado por la Universidad Internacional Isabel I de España. Arquitecto de la Universidad de San Carlos de Guatemala (USAC) y cuenta con un posgrado en BIM Expert Revit 360-Project and Construction Manager.

Tiene experiencia de mas de 5 años en la gestión de equipos multidisciplinares BIM e implantación de metodologías BIM en empresas de Construcción del sector privado. Posee mas de 100,000 m2 de construcción en la gestión de modelos BIM tanto de arquitectura como de instalaciones hidrosanitarias. Experiencia en software BIM de modelado, auditorias BIM, Costeo 5D, Control de obras con simulaciones 4D y entornos comunes de Datos. Miembro activo de la Asociación Guatemalteca de estándares BIM (AGEBIM).

Actualmente dirige el área de innovación BIM de una empresa constructora, en donde se realizan proyectos de mejora con enfoque en metodología BIM.

TESTIMONIO DEL AUTOR:

1. ¿Qué es lo que más destacarías del máster?

«Creo que lo que más destacaría del Máster es la diversidad de profesionales que puedes llegar a conocer, por ser un máster internacional, te da la oportunidad de conocer profesionales de todo el mundo. Algo que también destaca del máster es el contenido digital que se tiene y la calendarización con la que se maneja el master; esto ayuda a tener un control de estudio más eficiente, sabiendo en que fechas debemos estudiar y entregar los trabajos..«

2. ¿En crees que te va ayudar en tu desarrollo profesional?

» El tener mejores conocimientos de tecnologías y metodologías de construcción nos empuja a tener un mejor manejo de equipos de trabajo, y a potencializar el liderazgo que cada uno tiene, personalmente en mi desarrollo como profesional me ayudo a obtener un mejor puesto en la organización en que estoy trabajando, dándome mayor credibilidad en las funciones que desempeño.«

3. ¿Por qué elegiste Structuralia?

«Personalmente escogí a Structuralia por dos puntos importantes, el primero que era un máster internacional avalado por una universidad de España y era de forma virtual. Y el segundo fue porque dan la oportunidad de adquirir media beca de estudio haciendo mucho mas accesible el poder prepararse de forma profesional, algo que muchas otras instituciones no dan.

]]>
https://blog.structuralia.com/proyecto-tfm-proyectos-de-arquitectura-en-control-de-obras-4d-2/feed 0
Proyecto TFM: BIM en edificaciones comerciales https://blog.structuralia.com/proyecto-bim-en-edificaciones-comerciales https://blog.structuralia.com/proyecto-bim-en-edificaciones-comerciales#respond Thu, 20 Mar 2025 08:00:00 +0000 https://blog.structuralia.com/proyecto-bim-en-edificaciones-comerciales

Las metodologías BIM demuestran diferentes beneficios en el desarrollo de proyectos de edificación. Este interesante TFM nos lo explica.

Proyecto TFM: BIM en edificaciones comerciales

Un proyecto realizado tras cursar el Máster BIM aplicado a la Edificación y que toma de base el anteproyecto de un Supermercado ubicado en Uruguay, realizado por otro Arquitecto que diseñó la albañilería y sanitaria, así como los distintos asesores de Estructura, Eléctrica y Aire acondicionado, bajo metodologías CAD.

Dentro de los cuáles se hace foco en el «Modelado» de diversas disciplinas partiendo de un Anteproyecto desarrollado con metodologías CAD, lo que llevará a una mayor eficiencia al poder continuar el desarrollo del proyecto bajo metodologías BIM, la «Coordinación» de dichas disciplinas, así como la «Gestión de la información» tanto para la fase de proyecto, pero además pensando en los usos futuros cómo la construcción y la subsiguiente Operación y Mantenimiento y la «Representación fotorrealista del proyecto».

Modelado

Simulando el trabajo colaborativo, en éste caso, se trabajó con un modelo por cada disciplina, simulando cómo se hubiera realizado si se hubiese trabajado con los asesores bajo metodologías BIM.

Dentro de los modelos realizados, se encuentran los modelos de las disciplinas de Estructura, Albañilería, Sanitaria, Eléctrica y HVAC, así como un archivo de coordinación, con los archivos de las distintas disciplinas vinculados, desde éste último se exportará a distintos softwares, como a TWINMOTION, la conexión con NAVISWORKse realiza desde los modelos de cada disciplina, así facilita organizar las detecciones de colisiones.

Otra alternativa sería trabajar en un mismo modelo con varias o todas las disciplinas juntas, pero separándolo por Subproyectos y que cada Subproyecto lo trabaje una persona distinta.

También pueden trabajar varias personas en un mismo subproyecto, pero puede ser más engorroso si no se organiza bien, ya que al editar un elemento o vista, se bloquea para ese usuario y el otro que se encuentra trabajando no podrá editarlo, hasta que el primero les dé permiso para hacerlo. Además de que se debe tener especial cuidado de ceder todos los elementos antes de dejar de trabajar en el proyecto.

1. Estructura

El trabajo de modelado se realizó enteramente en Revit, si bien la Estructura pensaba realizarla en un principio en Tekla, ya que fue otro de los softwares que estudiamos en el master, la licencia estudiantil ya había caducado, por lo que opté por realizarla en revit.

TFM Alan
Imagen 1. Modelo del puente.

Si bien la detección de colisiones se realiza con NAVISWORK, durante el modelado es normal encontrar detalles a resolver o incoherencias en los planos CAD, entre planta y alzado, por ejemplo, también la visualización 3D ayuda a detectar rápidamente puntos a definir, cómo probables fundaciones existentes cercanas a las nuevas fundaciones.

TFM Alan
Imagen 3.Estructura Visualización 3D

TFM Alan
Imagen 2. Estructura Visualización 3D

2. Albañería

TFM Alan
Imagen 4. Albañilería

El Modelo de Albañilería no presenta demasiada complejidad, es un proyecto de pequeña-mediana escala, que fue lo recomendado para el tiempo disponible de aproximadamente mes y medio para realizar el trabajo final del máster, donde se debía desarrollar por lo menos una disciplina más además de albañilería, y trabajar con distintos programas para resolverlo.

3. Sanitaria

En el proceso del modelado de Sanitaria, no se contaba con todas las cotas, solo las pendientes y algunas Cotas de zampeado de algunas cámaras, esto que es normal para la etapa de anteproyecto, sumado a que en los planos CAD tradicionales muchas veces no se tiene en cuenta las dimensiones reales de las distintas piezas, hace que el modelado lleve el proyecto a un nivel de detalle mucho mayor, además de resolver algunas interferencias en el momento.

6 (1)
Imagen 5. Sanitaria 3D

Imagen 6. Sanitaria 3D
Imagen 6. Sanitaria 3D

Los modelos MEP pueden cargarse de mucha información y hacerlos más inteligentes, en éste caso por ejemplo la fosa séptica se modeló para que mantenga el volumen establecido de 2000 lts, aumentando su profundidad, a medida que aumenta la profundidad de la Cota de zampeado de entrada, de forma paramétrica.

8 (1)
Imagen 7. Sanitaria 3D

Para el caso de las cámaras se optó por retirarles los conectores MEP, para facilitar la llegada de los caños en cualquier dirección.

5. Electrica

Imagen 8. Eléctrica 3D
Imagen 8. Eléctrica 3D

En el caso del modelo de Instalaciones Eléctricas, además de modelar las bandejas, luminarias y cámaras de eléctrica, se realizaron las conexiones a los tableros con los circuitos cómo estaba establecido en el anteproyecto, lo que, al completar ciertos datos técnicos, permite establecer la carga de los distintos tableros, así como tiene la posibilidad de equilibrar las fases de los mismos.

6. HVAC

A dichos elementos se les agregaron algunos parámetros para identificar la marca comercial de las lámparas, su código, la fecha de instalación y fecha del próximo mantenimiento.

Imagen 9. HVAC 3D
Imagen 9. HVAC 3D

Además de que a todos los elementos se les codificaría con un código único, esto pensando en una posible Operación y Mantenimiento utilizando metodologías BIM, para ello depende del software puede necesitarse configurar y exportar los datos bajo el estándar CoBie, pensado para dicho fin.

Gestión de la Información

Imagen 10. Panel
Imagen 10. Panel

La gestión de la información bajo metodologías BIM abarca tanto el flujo de trabajo general del proyecto, cómo de la información contenida en los distintos modelos.

A nivel del FLUJO DE TRABAJO se trabaja con modelos independientes por disciplinas y vinculados entre ellos, la comunicación con el Tutor y por consultas con el Arquitecto del proyecto original se realiza subiendo los modelos a la plataforma online Autodesk Fusión Team, lo que permite visualizar los modelos por medio de la plataforma web sin necesidad de programas especializados, además de poder realizar comentarios sobre objetos específicos del modelo y realizar seguimiento de los mismos, también se pueden visualizar los distintos planos cargados en Revit desde la plataforma, realizar secciones, mediciones y consultar propiedades de los elementos.

Imagen 11. 3D
Imagen 11. 3D

Para la Gestión de la Información de los modelos, entre otras cosas, se trabajó con programación visual DYNAMOpara automatizar tareas, en éste caso partiendo de una planilla Excel organizada para dicho uso, y partiendo de un archivo de parámetros compartidos existente, crea los parámetros compartidos especificados y los agrega a las categorías de revit especificadas en el Excel. El uso de parámetros compartidos es muy recomendable para el uso eficiente de la información y desde Revit solo se pueden crear y agregar uno a uno, sin poder modificar luego de creado el nombre o las propiedades de dicho parámetro luego de creado, por lo que poder automatizar una tarea laboriosa y repetitiva es un claro ejemplo de las ventajas que da el trabajar con éstas metodologías.

Organización del archivo Excel de donde tomar los datos:

Imagen 12. Datos
Imagen 12. Datos

14 (1)

TFM Alan

La primer parte de la Rutina es donde se cargan los datos desde el Excel, se toma cómo datos de entrada el Excel y el nombre de la pestaña del Excel de donde tomar los datos (String), con el nodo “List.RestOfItems” se elimina el primer campo de cada lista, en éste caso, los títulos, y con “List.Trasnpose” se cambia el orden de las listas (de filas del Excel a columnas), para que me sirva por cómo está organizado en el Excel, por defecto arma las listas por filas y no por columnas de Excel, donde la primer lista serían todos los títluos que sacamos con el nodo anterior.

Imagen 13. Árbol datos
Imagen 13. Árbol datos

En la segunda parte de la rutina, se filtran los datos de cada lista con “List.GetItemAtIndex”, lo que permite separar las listas para asignarlas de forma independiente a distintos nodos, por cómo está organizado el Excel, la primer lista será el Nombre del parámetro compartido (index=0), el segundo, el Grupo del Parámetro Compartido (index=1), luego el Tipo de Parámetro (index=2), el Grupo (index=3) donde se organizará el parámetro dentro de las propiedades y el resto son las categorías a las que se le asignará cada parámetro (Muros, ventanas, Masas, etc.), en ese caso hay que hacer que se tome la cantidad de celdas de excel que están llenas en cada parámetro para que no de error, por lo que con “List.Count” se cuenta la cantidad de campos llenos en Excel, se les resta 4, que son las celdas con los datos anteriores, y se ordena esa lista.

Imagen 14. 
Imagen 14.

La última parte, es donde se crean los parámetros compartidos con el nodo “Parameter.CreateSharedParameter”, donde también se establece si los parámetros serán de instancia o de tipo, en éste caso se pensó que todos serían parámetros de instancia, en caso de querer crearlos algunos de tipo y otros de instancia, se debería crear otra columna en el Excel con ese dato y filtrarlo como los anteriores.

          Imagen 15
Imagen 15

El resultado es tener rápidamente un gran número de parámetros compartidos, de forma ordenada y evitar el error de trascribirlos manualmente si ya los tenemos listados.

Recordar las diferencias entre los tipos de parámetros: 

TFM Alan

Por lo que es recomendable trabajar con parámetros compartidos para poder hacer el mejor uso de esa información, además de que, al generarse en un archivo externo, permite que todos los que estén trabajando en el proyecto, utilicen los mismos parámetros (Importante no duplicar dicho archivo, tiene que estar en una red en un lugar accesible para revit para poder cargar dicho archivo y evitar parámetros duplicados, idealmente en el CDE).

Luego de creados los parámetros, al momento de rellenar con datos buena parte de los mismos, utilizo el plug−in BIM One (Export-Import Excel, bimone.com) que permite exportar tablas de planificación a Excel de forma bidireccional y poder gestionar dicha información mucho más rápida e incluso, se podría hacer partícipe a terceros que no tengan manejo de herramientas BIM pero los mismos son los que nos brindarán los datos necesarios sobre determinados equipos o instalaciones, sería posible un flujo de trabajo donde para el Conforme a Obra, se le entregara al y/o Subcontratos las listas con los parámetros vacíos, que nos interesan tener en el modelo para luego poder realizar una mejor Operación y Mantenimiento, y que sean éstos los que llenen los distintos Excel, sin modificar el formato y luego se cargan directamente en el modelo, evitando errores por el traspaso de información.

Para esto debe poder distinguirse con un parámetro, preferentemente codificado cada elemento de interés en la obra. Éste parámetro que llamé Codificación, debería hacer una referencia clara al elemento y conformarse de siglas que nos permitan poder filtrar los datos para localizarlo más fácilmente.


Lo ideal sería seguir los criterios establecidos en la ISO 19650 que, con respecto a nomenclaturas, por ahora establece los criterios para nombrar los contenedores de archivos y los archivos del proyecto.

Renderizado

Otro de los usos comunes de los modelos 3D es el uso para su representación fotorrealista, desde antes del uso de metodologías BIM, pero éstas han hecho que sea un proceso mucho más fluido y eficiente, donde distintos los softwares de renderizado reconocen los datos de los elementos lo que permite agruparlos o gestionarlos mejor, así como sus materiales y texturas, además de mantener un vínculo con los archivos originales que permite realizar cambio al modelo, sin perder los avances realizado para el renderizado. En éste caso utilicé el programa Twinmotion, por su sencillez y buenas prestaciones para el renderizado, además de contar con licencias estudiantiles, Twinmotion tiene una buena biblioteca interna tanto de materiales, cómo de elementos, luces, personajes animados, efectos especiales, etc.

Otra alternativa y uno de los programas de renderizado más potentes bajo metodologías BIM es LUMION.

Detección de coliciones

Uno de los objetivos principales planteado para éste proyecto era la detección de colisiones, por lo que se modelaron varias disciplinas, Albañilería, Estructura, Sanitaria, Eléctrica y Aire acondicionado, y entre éstas se realizó la detección de colisiones.

Para esto se utilizó el software Naviswork manager, linkeando directamente los archivos .rvt, lo que genera los archivos cache de formato NWC, y se trabaja con el formato NWF, el cuál permite volver a cargar cualquier modificación que hayan tenido los modelos, sin perder el trabajo realizado.

Naviswork es un software muy potente y así también lo es su herramienta “Clash detective”, que además de realizar detecciones estáticas, puede vincularse a una línea de tiempo y a una secuencia para ver posibles colisiones a lo largo de tiempo, en éste caso solo se realizaron detecciones estáticas. Se realizó una primera prueba de colisiones de todos los elementos contra todos, con un resultado de más de mil colisiones, de todo tipo.

Éste método no es recomendable, ya que hay muchas colisiones que, si bien en el modelo se detectan cómo tal, no lo son en realidad, por ejemplo, las cámaras con los suelos, caños que van canalizados dentro de muros, pequeños pases de instalaciones por muros, etc. Revit permite detallar hasta niveles extremos, pero en general no es recomendable.

Para poder gestionar mejor las interferencias se procedió a realizar varios test de colisiones, entre ellos, Estructura con Sanitaria, Estructura con Eléctrica, Estructura con AA, Sanitaria con Eléctrica y AA al mismo tiempo, y para albañilería se realizaron algunas detecciones de categorías de elementos particulares como puertas y ventanas que es donde seguro no deben existir interferencias con las otras disciplinas.

Luego de las distintas pruebas se fueron agrupando las colisiones por elementos en común, por ejemplo, las vigas del muro de fachada del edificio preexistente con las bajadas de pluviales, las nuevas fundaciones de los pilares metálicos, con caños de sanitaria, etc.

Otro punto importante es luego de tener detectadas las colisiones, realizar el tratamiento de las mismas, Naviswork permite establecer estados, así cómo responsable y comentarios, para realizar el seguimiento de las mismas.

Informe de Colisiones de Naviswork

TFM Alan

TFM Alan

Para detectar los elementos rápidamente en Revit, se usarían los ID de los elementos de las colisiones que deben establecerse que salgan en los informes de colisiones y se buscaría dichos elementos con la herramienta SELECCIÓN POR ID de Revit.

En Structuralia agradecemos el enorme desempeño e iniciativa de Alan Feldkamp y su proyecto TFM. ¿Quieres desarrollar tu futuro profesional igual que Alan? Puedes ingresar a nuestra sitio de Structuralia e investigar la importante cantidad de material formativo en este sector, y adicionalmente la variedad de maestrías especializadas que necesitas para conseguir tus objetivos. 

———–

RESEÑA DEL AUTOR:

Alan FeldkampAlan Feldkamp Dall”Oglio:

     Máster en BIM aplicado a la Edificación impartido por Structuralia y avalado por la Universidad Internacional Isabel I         de España. Arquitecto graduado en la Universidad de la República de Uruguay (UdelaR). 

      Miembro del grupo Articulación del BIM Fórum Uruguay desde 2018.

Actualmente se desempeña como modelar BIM para el CCFC (Consorcio Constructor Ferrocarril Central), consorcio formado por empresas locales e internacionales para la construcción de 273 km de vías férreas junto a sus estructuras asociadas y su posterior mantenimiento.

Entusiasta de las metodologías BIM, que continúa formándose en áreas como Dynamo, Coordinación BIM y actualmente cursando la certificación profesional de Analista de Datos de Google con el fin lograr una mejor gestión de la información en proyectos BIM.

1. ¿Qué es lo que más destacarías del máster?

«Lo principal que destacaría y que fue uno de los determinantes por lo cuál me elegí éste máster, es lo completo de la propuesta programática, tanto de lo teórico cómo lo práctico, en mi caso no tenía mucha experiencia previa en los distintos software BIM, solo un nivel algo básico de Revit, por lo que me interesaba aprender sobre las metodologías BIM en general, pero también conocer y tener cierta práctica en distintos software BIM y aprender de las buenas prácticas sobre la interacción entre ellos, donde uno el principal software que se usa es REVIT que es uno de los más usado en el mundo en el rubro de la edificación, pero también aprendimos a trabajar realizar control de costos en PRESTO y su vinculación con REVIT por medio de COST-IT, Modelado de estructuras metálicas con TEKLA y también su vinculación con REVIT, así cómo el diseño de las uniones metálicas con DIAMONDS y POWERCONNECT, coordinación de proyectos y detección de colisiones con NAVISWORK y TEKLA BIMsight, planificación temporal con SYNCHRO, así cómo otros temas como programación con DYNAMO, y visualización con LUMION, entre otros.
Dentro de las prácticas realizadas, una de las más destacadas fue la realización en equipos de un plan de ejecución BIM (BEP), tomando cómo referencia una licitación real de una estación de metro.»

2. ¿En crees que te va ayudar en tu desarrollo profesional?

«Puedo asegurar que ya me ha ayudado, en un principio al profundizar en las metodologías BIM, que hace un tiempo se ve cómo una tendencia en el sector pero que antes del máster, sólo sabía superficialmente que abarcaba, y darme cuenta que es un mundo muy amplio y en constante evolución en el cuál sigo y seguiré formándome y profundizando.

También para tener práctica en distintos software que son de los más utilizados en el mercado, así cómo despertar mi interés en ciertos temas más específicos cómo la programación en DYNAMO, lo que me llevó a seguir formándome en el tema y lo cuál fue uno de los diferenciales para obtener mi trabajo actual, cómo Modelador BIM en el Consorcio Constructor del Ferrocarril Central.»

3. ¿Por qué elegiste Structuralia?

«Cuando decidí realizar un máster especializado en BIM, estuve evaluando distintas propuestas, primeramente debía ser una formación 100% online ya que en mi país no existen formaciones tan completas sobre el tema.

Dentro de esas posibilidades, debía ser tener un programa muy completo y con una buena parte práctica, que cómo ya mencioné, es uno de los puntos que destaco de dicho máster.

También que el máster tenga un respaldo académico, que se da tanto por los profesionales que participan cómo docentes y/o coordinadores, así cómo por ser uno de los máster que se incluían dentro de las becas de la Organización de los estados americanos (OEA), institución por la cuál obtuve una beca parcial que me permitió cursar éste máster.»

]]>
https://blog.structuralia.com/proyecto-bim-en-edificaciones-comerciales/feed 0