martes, 11 de junio de 2019

Trabajo final Documentación (D)

Para examinar cómo se ha realizado el proceso de búsqueda, almacenamiento y análisis de la literatura empleada en el trabajo se va a proceder de forma separada.

El proceso de búsqueda ha sido constante durante la completa realización del TFM y lo comencé ya antes del inicio del año académico. La búsqueda inició con un artículo mostrado por el profesor con el que he colaborado. En este primer artículo se encontraban ya referencias a la teoría del mecanizado en la que se basa, la teoría de Oxley, que es una de las principales. Por lo tanto, el siguiente paso fue obtener la literatura original de la misma, expuesta en una serie de artículos y un libro que aunaba la totalidad de la teoría, escrito por el propio Oxley. A su vez, sebuscaron publicaciones secundarias, como artículos de revisión y libros especializados con los que familiarizarme con el estado del arte y su evolución. Con ellos también conseguí referencias a los artículos más recientes y relevantes para la dirección que se quería tomar en el trabajo. Con el estudio de todo ello, tenía una comprensión de las fuentes originales, así como una visión general del estado de la teoría.

No obstante, durante la búsqueda sí que caben resaltar dos aspectos. El primero de ellos es el hecho de que, si bien en gran cantidad de artículos se desarrollan algoritmos y modelos de elementos finitos, resulta imposible acceder a ellos, por lo que la replicabilidad de los resultados depende por completo de cómo considere el receptor que se han realizado (un ejemplo de ello se pondrán más adelante). Esto me parece importante, especialmente si se tiene en cuenta que ya hay ejemplos de plataformas como Github (donde se puede encontrar, por ejemplo, el código empleado para realizar la reciente imagen del agujero negro) o simplemente atendiendo a la facilidad actual para comunicar la información. El segundo aspecto es la dificultad que he encontrado para buscar una serie de resultados experimentales empleados en una gran cantidad de artículos. Los resultados se publicaron en el año 2000 y estaban disponibles en una página web de un centro de investigación, pero en la actualidad esa página ya no existe. Sin embargo, precisamente gracias a la posibilidad de buscar artículos que citaron la publicación que acompañaba a esos resultados, se pudo reconstruir por lo menos parte de los mismos.

Respecto al almacenamiento de la literatura, empleé tanto copias físicas de los artículos como almacenamiento digital. Las copias físicas las realicé de los artículos principales para tener un acceso fácil y rápido a los mismo, de forma que también pudiese añadir anotaciones, subrayar, realizar esquemas, etcétera. En el ordenador mantenía una una carpeta con todos los artículos, ordenados a su vez por temas o autores. Sin embargo, la herramienta más útil fue Mendeley, con el que podía almacenar todas las referencias y subir también los archivos, haciendo también sencillo su uso durante la redacción del texto.

Por último, se va a comentar el análisis de la literatura. Como ya se ha dicho, uno de los principales problemas con los que me he encontrado ha sido la ausencia de los códigos originales empleados, especialmente en dos artículos. Uno de ellos expone un algoritmo predictivo desarrollado en base a la teoría de Oxley y es el que traté de replicar. No obstante, en un principio los resultados no se correspondían con los obtenidos en el artículo, pero el algoritmo parecía estar escrito correctamente. Tras un análisis exhaustivo, observé que simplemente cambiando el valor de un parámetro los resultados eran exactamente iguales a los del artículo. Por lo tanto, el valor de este parámetro dado en el artículo (para el que tampoco se da una explicación concreta de por qué se toma así) lo considero como una errata, al igual que otras que encontré, por ejemplo, se transcriben mal los datos experimentales tomados de otro artículo. El otro problema con el que me encontré fue con un artículo en el que se expone un modelo de elementos finitos, en concreto, el artículo con el que comencé la búsqueda de literatura. En el artículo anterior, si bien contenía erratas, las ecuaciones y la teoría estaban expuestas al completo. Sin embargo, en este otro parecen omitirse grandes partes del método empleado para realizar el modelo de elementos finitos. A su vez, los resultados no parecen corresponderse en ningún caso con otros resultados obtenidos en la literatura, tanto experimentales como obtenidos mediante elementos finitos. Por supuesto, comencé a observar esta falta de correlación una vez me había familiarizado con el tema. La consecuencia lógica es preguntarse cómo es posible que estos artículos hayan pasado el proceso de revisión por pares, teniendo en cuenta que uno tiene erratas evidentes que llegan a afectar a la replicabilidad y el otro contiene una explicación insuficiente del modelo de elementos finitos y los resultados no parecen tener sentido.

Trabajo final Aspectos Básicos (A)

El tema sobre el que se ha desarrollado el TFM es la modelización de los procesos de mecanizado, mediante la cual se pretende tener un mejor conocimiento de este tipo de procesos tan importantes en la fabricación. En base a la bibliografía disponible se ha realizado un algoritmo predictivo y un modelo de elementos finitos. Estas son dos herramientas muy útiles. El algoritmo se basa en la teoría analítica y permite caracterizar toda la zona en la que se produce el corte, incluyendo las tensiones producidas, temperaturas alcanzadas, velocidades de deformación, fuerzas, etcétera, todo ello partiendo de las condiciones de corte, es decir, la anchura y profundidad del corte, el ángulo con el que se realiza y la velocidad. Por otro lado, el modelo de elementos finitos realiza un análisis térmico del proceso, obteniendo la distribución de la temperatura en la zona de corte. El objetivo de ambos es comprender con mayor precisión qué es lo que sucede durante el mecanizado.

Por lo general, para seleccionar las condiciones de corte que se van a emplear en un proceso de mecanizado en la industria, se recurre a la experiencia, diferentes tablas y datos experimentales. Con ello, se trata de encontrar unas condiciones de forma que se termine el trabajo en el tiempo necesario, con el acabado requerido y cuidando el desgaste de la herramienta (este desgaste es muy importante y se puede tender a ser conservador al considerar su ciclo de vida). Mediante el algoritmo y el modelo de elementos finitos se podría conocer de antemano una estimación de qué es lo que va a ocurrir durante ese proceso, permitiendo predecir con mayor precisión el resultado. No sólo eso, sino que también puede emplearse para seleccionar las condiciones de corte más apropiadas para optimizar el proceso, reduciendo el consumo de energía y el desgaste de la herramienta. A su vez, también se puede encontrar su uso para permitir modelizar los procesos de mecanizado de materiales especialmente difíciles como pueden ser las superaleaciones.

Como se ve, de forma general las aplicaciones y mejoras que pueden permitir las teorías del mecanizado y su aplicación en la forma de algoritmos predictivos y modelos de elementos finitos se centran en la industria, especialmente en la optimización de procesos, que a su vez puede llevar a un ahorro económico.

Respecto a la conveniencia (o no) de proteger los resultados lo encuentro un tema en la que pueden caber prácticas distintas dependiendo de quien desarrolle la investigación. Un aspecto importante a tener en cuenta es que todo lo que he expuesto anteriormente también requiere de una gran cantidad de datos experimentales para contrastar los datos con el objetivo de mejorar las propias teorías. Esto datos, además, son en ocasiones muy complejos de obtener, como puede ser el caso de la temperatura. La necesidad de datos experimentales también se extiende al material. Los procesos de mecanizado van a depender en gran medida del material sobre el que se trabaja y para obtener buenos resultados se requiere de un modelo termo-visco-plástico del mismo (uno muy empleado es el de Johnson-Cook). Todo esto hace necesario un gran trabajo que sin duda se beneficiaría de tener una gran cantidad de organismos y empresas que compartiesen sus resultados. Sin embargo, como ya he dicho, esto también puede dar (en principio) cierta ventaja a una empresa que puede no desear compartir sus resultados con el exterior, recurriendo, por ejemplo, al secreto industrial.

En definitiva, la aplicación de las teorías del mecanizado mediante algoritmos predictivos y modelos de elementos finitos pueden permitir un mayor control sobre los procesos de producción, permitiendo una mejor previsión del desgaste de la herramienta y el acabado superficial, así como un ahorro económico. Sin embargo, también requieren de una gran experimentación para la corroboración de resultados y realización de los necesarios modelos del material. Esto, sin duda, se facilitaría con una colaboración general, pero las empresas también pueden recurrir al secreto industrial para evitar que otros empleen sus resultados.

Trabajo final Documentación (D)

Para examinar cómo se ha realizado el proceso de búsqueda, almacenamiento y análisis de la literatura empleada en el trabajo se va a procede...