����������������������������������������������������������������������������������
Predicci�n del comportamiento termogravim�trico de la energ�a de activaci�n de los residuos c�scara de papa (solanum tuberosum)
Prediction of the thermogravimetric behavior of the activation energy of potato peel waste (solanum tuberosum)
Previs�o do comportamento termogravim�trico da energia de ativa��o da batata (solanum tuberosum) descasca os res�duos
![]() |
|||||||
![]() |
|||||||
![]() |
|||||||
![]() |
|||||||
Correspondencia: michel.jara@espoch.edu.ec
Ciencias T�cnicas y Aplicadas ���
Art�culo de Investigaci�n
��
* Recibido: 23 de junio de 2022 *Aceptado: 12 de julio de 2022 * Publicado: 09 de agosto de 2022
I. Ingeniera Qu�mica, Escuela Superior Polit�cnica de Chimborazo (ESPOCH), Riobamba, Ecuador.
II. Ingeniero Qu�mico, M�ster en Qu�mica, Mag�ster en Calidad y Productividad, Facultad de Ciencias, Escuela Superior Polit�cnica de Chimborazo (ESPOCH), Riobamba, Ecuador.
III. Ingeniera en Empresas, Mag�ster en Auditor�a Integral, Facultad de Ciencias, Escuela Superior Polit�cnica de Chimborazo (ESPOCH), Riobamba, Ecuador.
IV. Ingeniera Qu�mica, M�ster en Qu�mica, Mag�ster en Gesti�n Ambiental, investigadora independiente, Riobamba, Ecuador.
Resumen
El uso de combustibles f�siles genera un impacto negativo en el medio ambiente. Por lo que se ha impulsado la investigaci�n del aporte energ�tico de los residuos agroindustriales, pues en el ecuador el consumo anual de papa por persona est� en 30 kg. El comportamiento t�rmico de materiales como la c�scara de papa se determina por termogravimetr�a. Esta investigaci�n desarroll� una red neuronal artificial capaz de predecir el comportamiento termogravim�trico de la energ�a de activaci�n en los residuos de c�scara de papa (Solanum tuberosum). Se utilizaron datos experimentales del an�lisis termogravim�trico de la c�scara de papa y c�lculos mediante modelos cin�ticos propuestos, estableciendo una base de 100 datos en el modelo de predicci�n. El desarrollo de la red se llev� a cabo en el software Matlab con tres variables de entrada correspondientes al tiempo, temperatura y peso. Se desarrollaron 375 neuronas en la capa oculta de acuerdo con el coeficiente de correlaci�n de pearson de 1 y error cuadr�tico medio de 2,327E-09 que evidenciaron como mejor algoritmo de entrenamiento el de regularizaci�n bayesiana; por �ltimo, se emple� una variable de salida correspondiente a la energ�a de activaci�n calculada por el m�todo cin�tico de Flynn Wall Ozawa, validando de esta manera al modelo de predicci�n con un valor del 95% de confianza. La informaci�n de la energ�a de activaci�n real obtenidos por termogravimetr�a y predicha por la red neuronal artificial muestran estad�sticamente que no existe una diferencia significativa, de tal manera que el m�todo de predicci�n de redes neuronales artificiales desarrollado resulta muy efectivo para la predicci�n de la energ�a de activaci�n de los residuos de c�scara de papa.
Palabras Clave: C�scara de papa; An�lisis termogravim�trico; Redes neuronales artificiales; Modelos Cin�ticos; Energ�a de activaci�n; Matlab.
Abstract
The use of fossil fuels generates a negative impact on the environment. For this reason, research on the energy contribution of agro-industrial residues has been promoted, since in Ecuador the annual consumption of potatoes per person is 30 kg. The thermal behavior of materials such as potato skins is determined by thermogravimetry. This research developed an artificial neural network capable of predicting the thermogravimetric behavior of activation energy in potato peel residues (Solanum tuberosum). Experimental data from thermogravimetric analysis of potato peel and calculations using proposed kinetic models were used, establishing a base of 100 data in the prediction model. The development of the network was carried out in Matlab software with three input variables corresponding to time, temperature and weight. 375 neurons were developed in the hidden layer according to a Pearson correlation coefficient of 1 and a mean square error of 2.327E-09, which showed the Bayesian regularization as the best training algorithm; Finally, an output variable corresponding to the activation energy calculated by the Flynn Wall Ozawa kinetic method was used, thus validating the prediction model with a 95% confidence value. The information of the real activation energy obtained by thermogravimetry and predicted by the artificial neural network show statistically that there is no significant difference, in such a way that the artificial neural network prediction method developed is very effective for the prediction of the activation energy. activation of potato peel residues.
Keywords: potato skin; thermogravimetric analysis; Artificial neural networks; Kinetic Models; Activation energy; matlab.
Resumo
O uso de combust�veis f�sseis gera um impacto negativo no meio ambiente. Por isso, tem sido promovida a pesquisa sobre a contribui��o energ�tica dos res�duos agroindustriais, j� que no Equador o consumo anual de batatas por pessoa � de 30 kg. O comportamento t�rmico de materiais como cascas de batata � determinado por termogravimetria. Esta pesquisa desenvolveu uma rede neural artificial capaz de prever o comportamento termogravim�trico da energia de ativa��o em res�duos de casca de batata (Solanum tuberosum). Foram utilizados dados experimentais da an�lise termogravim�trica da casca de batata e c�lculos utilizando os modelos cin�ticos propostos, estabelecendo uma base de 100 dados no modelo de predi��o. O desenvolvimento da rede foi realizado no software Matlab com tr�s vari�veis de entrada correspondentes a tempo, temperatura e peso. 375 neur�nios foram desenvolvidos na camada oculta de acordo com um coeficiente de correla��o de Pearson de 1 e um erro quadr�tico m�dio de 2,327E-09, que mostrou a regulariza��o Bayesiana como o melhor algoritmo de treinamento; Por fim, foi utilizada uma vari�vel de sa�da correspondente � energia de ativa��o calculada pelo m�todo cin�tico Flynn Wall Ozawa, validando assim o modelo de predi��o com um valor de confian�a de 95%. As informa��es da energia de ativa��o real obtida pela termogravimetria e predita pela rede neural artificial mostram estatisticamente que n�o h� diferen�a significativa, de modo que o m�todo de predi��o da rede neural artificial desenvolvido � muito eficaz para a predi��o da energia de ativa��o. de res�duos de casca de batata.
Palavras-chave: casca de batata; an�lise termogravim�trica; Redes neurais artificiais; Modelos Cin�ticos; Energia de ativa��o; matlab.
����������������������������������������������������������������������������������������������
Introducci�n
En Ecuador existen alrededor de 50 mil hect�reas de sembr�os de la papa, de las cuales, 300 mil toneladas forman parte del sustento y alimentaci�n familiar y se estima que en el pa�s cada persona consume 30 Kg de papa por a�o, siendo en promedio los residuos generados por persona correspondientes a 0,6 Kg; considerando as� la c�scara como residuo principal del consumo de papa. Por lo que la falta de manejo y desarrollo investigativo han hecho de este residuo una materia prima poco valorada lo que ha tra�do como consecuencias la generaci�n de gases tipo metano debido a su descomposici�n, afectando al ecosistema (MAGAP, 2020).
El an�lisis termogravim�trico (TGA) se ha convertido en un procedimiento de mucho inter�s al momento de analizar el comportamiento t�rmico de diferentes materiales en este caso de los residuos de c�scara de la papa, proporcionando informaci�n importante para el an�lisis cin�tico como es la p�rdida de masa de la biomasa en cuesti�n con respecto a diferentes intervalos de tiempo y temperatura resultando de gran importancia ya que estos permiten calcular variables dentro del proceso de degradaci�n t�rmica como es la energ�a de activaci�n, constante de reacci�n y orden de la misma, fundamentada en el uso de m�todos o ecuaciones iso convencionales. �(Finkelstein, 2015). (C�rtes & Bridgwater, 2015) (PHOTOMETRICS, 2010) (C�rtes & Bridgwater, 2015). (Chen N. , 2017)
Hoy en d�a, se est�n llevando a cabo varios m�todos computacionales para la predicci�n de datos t�rmicos, reduciendo el n�mero de procedimientos y an�lisis de laboratorio (Ozgue, 2018), por lo que el uso de inteligencia artificial en este trabajo permite la predicci�n de la energ�a de activaci�n a diferentes tasas de calentamiento.
Existen estudios sobre la aplicaci�n de RNA en la predicci�n de datos t�rmicos, estos se han centrado principalmente en materiales que tienen rutas de descomposici�n m�s predecibles, como los pol�meros y compuestos. Se ha determinado �la cin�tica de reacci�n de diferentes materiales polim�ricos mediante datos basados en el an�lisis TGA a varias velocidades de calentamiento (Conesa, 2004), como �compuestos de carbono reforzado con fibra de carbono �y en biomasa celul�sica (CRFC) (Bezerra, Bento, Rocco, Lourenco, & Pardini, 2008). (Yildiz, 2016) (Chen H. , 2011). (Burgaz, 2014). (Ozgue, 2016)� �(Basu, 2018).
Las redes neuronales (RNA) se dise�an a partir de una serie de capas (entrada, oculta y salida) y cada capa comprende muchas "neuronas". Cada neurona acepta un valor de entrada de la capa anterior y lo asigna a una funci�n no lineal. La salida de esta funci�n se utiliza como entrada para la siguiente capa en la RNA, hasta llegar a la �ltima capa, donde la salida corresponde al objetivo que se va a predecir. Adem�s, un par�metro ajustable, el "peso" (o coeficiente) de cada funci�n de la neurona se ajusta en el dise�o de este modelo para minimizar el error del valor predicho, un proceso conocido como "entrenamiento" de la red neuronal. (Rosario, 2020) (Lecun, 2015) �(Jaiswal, 2018).
El inter�s de los acad�micos en la idea de que el aprendizaje artificial y autom�tico puede reemplazar a actividades del ser humano, para asumir roles en el lugar de trabajo y remodelar el proceso organizacional existente ha ido creciendo constantemente (Haefner, 2021). (Sunphorka, 2017). (Kumar & Selvarajo, 2015) (G�mez, 2019). (Rosario, 2020) (MATHWORKS, 2020).
Metodolog�a
En la �Error! No se encuentra el origen de la referencia.1 se describe mediante fases, la metodolog�a empleada para su desarrollo.
Figura 1. Metodolog�a del trabajo
Fuente: Jara, Michel, 2021
Es importante mencionar que las variables obtenidas por an�lisis termogravim�trico est�n sujetas a c�lculos antes de reemplazar en los modelos cin�ticos.
Tabla 1. Modelos cin�ticos
Nombre del m�todo |
Ecuaci�n |
Arrhenius |
|
ASTM-E698 |
|
|
|
Kissinger-Akahira-Sunose(KAS) |
|
Friedman |
|
Fuente: (Lecun, 2015)
Se estableci� una base de datos en Microsoft Excel a partir de la informaci�n proporcionada por dos an�lisis termogravim�tricos, donde el modelo de Flynn-Wall-Ozawa (FWO) present� menor desviaci�n en sus datos 12,98 y 12,62 en sus diferentes tasas de calentamiento 5�C/min y 15�C/min respectivamente.
Se dise�a las variables de entrada y salida de la red neuronal artificial:
Tabla 2. Variables de entrada y salida de la red neuronal artificial
Capa |
Variables |
Unidades |
|
Entradas |
Tiempo |
t |
s |
Temperatura |
T |
K |
|
Peso |
P |
mg |
|
Salidas |
Energ�a de activaci�n |
Ea |
KJ/mol |
Fuente: Jara, Michel, 2021
Se importa la base de datos desde Microsoft Excel hacia el espacio de trabajo de Matlab. Se normalizan los datos para las entradas y salida con la finalidad de evitar la redundancia en los datos; lo que conlleva una mejora en el proceso de entrenamiento y predicci�n de la red, mediante siguiente ecuaci�n:
|
(1) |
Con los datos normalizados, se utiliza la aplicaci�n Neural Net Fitting (nftool) de la caja de herramientas de Matlab.
Las neuronas en la capa oculta se determinan en funci�n del error cuadr�tico medio (MSE) y la correlaci�n lineal (R) que presenta la red neuronal durante su entrenamiento. Para entrenar la red se establecen inicialmente 7 neuronas en la capa oculta y en base al MSE y la correlaci�n (R) obtenido con esta cantidad de neuronas, se ir� aumentando progresivamente el n�mero de neuronas en la capa oculta. Se selecciona el n�mero �ptimo de neuronas en funci�n del menor MSE y el R m�s cercano a 1.
En la Tabla 3, se presentan los diferentes ensayos realizados durante el entrenamiento de la red:
Tabla 3. Ensayos realizados ensayos realizados durante el entrenamiento de la red.
Topolog�as de red |
Levenberg-Marquardt |
Bayesian Regularization |
Scaled Conjugate Gradient |
|||
Entrada-N� neuronas-Salida- |
MSE |
R |
MSE |
R |
MSE |
R |
3-7-1 |
2,903E-02 |
0,68587 |
3,496E-06 |
0,57305 |
1,48E-04 |
0,76769 |
3-15-1 |
1,190E-05 |
0,77809 |
7,669E-03 |
0,76637 |
5,24E-03 |
0,66846 |
3-23-1 |
2,158E-04 |
0,76310 |
2,157E-04 |
0,77054 |
1,17E-04 |
0,77913 |
3-44-1 |
6,541E-10 |
0,92426 |
8,030E-03 |
0,77084 |
3,49E-04 |
0,77112 |
3-55-1 |
5,635E-02 |
0,74815 |
2,780E-03 |
0,75744 |
2,29E-02 |
0,58437 |
3-67-1 |
9,966E-05 |
0,84495 |
7,957E-03 |
0,76367 |
1,57E-03 |
0,40323 |
3-77-1 |
1,084E-03 |
0,76233 |
8,131E-03 |
0,76378 |
1,89E-03 |
0,70658 |
3-91-1 |
5,971E-04 |
0,72604 |
8,190E-03 |
0,76426 |
8,19E-04 |
0,74302 |
3-103-1 |
2,008E-04 |
0,75107 |
8,199E-03 |
0,76445 |
5,16E-03 |
0,66011 |
3-115-1 |
1,742E-02 |
0,93345 |
8,223E-03 |
0,76653 |
1,06E-02 |
0,24612 |
3-128-1 |
1,544E-02 |
0,94775 |
2,647E-03 |
0,76509 |
3,74E-03 |
0,54047 |
3-140-1 |
9,034E-04 |
0,79312 |
1,241E-09 |
0,52041 |
3,08E-02 |
0,56760 |
3-152-1 |
6,502E-04 |
0,59353 |
8,222E-03 |
0,76603 |
5,66E-03 |
0,70161 |
3-165-1 |
4,984E-02 |
0,74584 |
7,871E-03 |
0,77613 |
3,21E-02 |
0,60275 |
3-177-1 |
1,190E-04 |
0,89208 |
8,139E-03 |
0,76708 |
1,59E-03 |
0,73837 |
3-189-1 |
4,212E-04 |
0,83754 |
7,852E-03 |
0,77898 |
7,44E-03 |
0,70896 |
3-202-1 |
1,349E-04 |
0,92651 |
7,404E-03 |
0,77962 |
4,54E-03 |
0,70878 |
3-214-1 |
1,013E-01 |
0,67599 |
8,202E-03 |
0,76670 |
2,32E-02 |
0,52741 |
3-227-1 |
3,810E-04 |
0,60888 |
7,631E-03 |
0,78466 |
8,24E-04 |
0,76455 |
3-300-1 |
7,407E-02 |
0,69348 |
2,550E-03 |
0,79050 |
2,76E-03 |
0,67214 |
3-365-1 |
1,646E-03 |
0,82313 |
3,065E-08 |
0,99999 |
2,24E-03 |
0,53497 |
3-370-1 |
2,650E-04 |
0,82678 |
1,156E-09 |
0,99999 |
5,00E-03 |
0,72070 |
3-375-1 |
2,220E-03 |
0,83480 |
2,327E-09 |
1,00000 |
4,76E-03 |
0,32321 |
Fuente: Jara, Michel, 2021
De los ensayos presentados en la Tabla 3 se puede identificar que la mejor arquitectura de red (ver
Figura 2) consta de los siguientes par�metros:
- 3 neuronas de entrada correspondiente a tiempo, temperatura y peso.
- 375 neuronas en la capa oculta (Cantidad de neuronas que present� un MSE bajo y la mejor correlaci�n R)
- 1 neurona en la capa de salida correspondientes a la energ�a de activaci�n predicha.
Figura 2. Arquitectura de la red neuronal artificial
Fuente: Jara, Michel, 2021
La Tabla 3, permite determinar la arquitectura de red y evidencia que el algoritmo de regularizaci�n bayesiana tiene la correlaci�n lineal m�s cercana a 1 y menor error cuadr�tico medio que los algoritmos de Levenberg-Marquardt y Scaled Conjugate Gradient. En la validaci�n de la red neuronal artificial, se comparan los resultados obtenidos por la red con los resultados obtenidos por an�lisis TGA y modelos cin�ticos; empleando un nuevo conjunto de 10 datos. Esta validaci�n permitir� evaluar el rendimiento de la red neuronal artificial mediante un an�lisis de la varianza (ANOVA).
Tabla 4. Ejemplo de tabla ANOVA
Fuente |
Suma de Cuadrados |
Gl |
Cuadrado Medio |
Raz�n-F |
Valor-P |
Entre grupos |
0,00776574 |
1 |
0,00776574 |
0,000254299 |
0,686 |
Intra grupos |
549,681 |
18 |
30,5378 |
|
|
Total (Corr.) |
549,689 |
19 |
|
|
|
Fuente: Jara, Michel, 2021
�
Resultados
An�lisis termogravim�trico de la c�scara de papa experimental
Tabla 5. Especificaciones del ensayo
Muestra |
Biomasa |
Descripci�n |
C�scara de papa |
Tipo de ensayo |
Termogravimetr�a |
Equipo / m�quina |
Mettler Toledo TGA-1 |
Descripci�n del m�todo |
� 2 rampas de calentamiento distintas 5 y 15 �C/min � Programa de 25 a 900 �C � Atm�sfera inerte (N2) 20 ml/min � Resultados de TGA y dTGA (200 puntos) |
Fuente: Jara, Michel, 2021
Figura 3. Termograma de la c�scara de papa con una tasa de calentamiento de 5�C/min
Fuente: Resultados laboratorio UCE, 2021
Figura 4. Termograma de la c�scara de papa con una tasa de calentamiento de 15�C/min
Fuente: Resultados laboratorio UCE, 2021
Empleando las ecuaciones presentadas en la �Error! No se encuentra el origen de la referencia.1 se calcul� la energ�a de activaci�n a partir de los datos TGA. Los resultados de la energ�a de activaci�n por los m�todos de Flynn-Wall-Ozawa (FWO), Kissinger-Akahira-Sunose (KAS) y Friedman se describen en la Tabla 6. Es importante destacar que la energ�a de activaci�n calculada por el m�todo de Friedman obtuvo una desviaci�n est�ndar de 49,87; el m�todo de KAS de 14,22 y el m�todo de FWO de 12,63. Por lo tanto, para dise�ar la red neuronal artificial se emplearon los datos de la energ�a de activaci�n calculada por el m�todo de Flynn-Wall-Ozawa (FWO).
Tabla 6. Energ�a de activaci�n calculada por diferentes m�todos cin�ticos
t [s] |
T [K] |
P [mg] |
Ea(FWO) |
Ea(KAS) |
Ea(Friedman) |
0 |
298,15 |
12,9641 |
0 |
0 |
0 |
20 |
303,15 |
12,9628 |
-99,9302 |
-102,5855 |
236,8342 |
40 |
308,15 |
12,9406 |
-59,3883 |
-59,8938 |
-319,5857 |
60 |
313,15 |
12,957 |
-42,8079 |
-42,4097 |
238,7520 |
80 |
318,15 |
12,9116 |
-33,7274 |
-32,8155 |
3,0171 |
100 |
323,15 |
12,8819 |
-27,9855 |
-26,7334 |
59,3394 |
120 |
328,15 |
12,8009 |
-24,0238 |
-22,5241 |
13,5254 |
140 |
333,15 |
12,7284 |
-21,1244 |
-19,4324 |
21,5061 |
160 |
338,15 |
12,6239 |
-18,9102 |
-17,0615 |
-3,2985 |
180 |
343,15 |
12,547 |
-17,1638 |
-15,1827 |
-10,3402 |
200 |
348,15 |
12,4823 |
-15,7509 |
-13,6548 |
8,3214 |
220 |
353,15 |
12,3655 |
-14,5844 |
-12,3860 |
-4,2151 |
240 |
358,15 |
12,2756 |
-13,6048 |
-11,3139 |
-16,7250 |
260 |
363,15 |
12,2265 |
-12,7706 |
-10,3948 |
-13,8657 |
280 |
368,15 |
12,1713 |
-12,0517 |
-9,5969 |
-3,6691 |
300 |
373,15 |
12,0805 |
-11,4256 |
-8,8967 |
-13,4948 |
320 |
378,15 |
12,0275 |
-10,8755 |
-8,2764 |
-19,3999 |
340 |
383,15 |
12,0013 |
-10,3884 |
-7,7224 |
-17,2266 |
360 |
388,15 |
11,9703 |
-9,9539 |
-7,2237 |
-7,7554 |
380 |
393,15 |
11,9038 |
-9,5641 |
-6,7721 |
-19,0547 |
400 |
398,15 |
11,8859 |
-9,2123 |
-6,3604 |
-22,4414 |
420 |
403,15 |
11,8848 |
-8,8932 |
-5,9832 |
-13,0576 |
440 |
408,15 |
11,8486 |
-8,6026 |
-5,6359 |
-10,4007 |
460 |
413,15 |
11,8035 |
-8,3367 |
-5,3145 |
-17,0628 |
480 |
418,15 |
11,7875 |
-8,0925 |
-5,0161 |
-15,4663 |
500 |
423,15 |
11,7671 |
-7,8674 |
-4,7378 |
-14,6301 |
520 |
428,15 |
11,7452 |
-7,6594 |
-4,4774 |
-1,9742 |
540 |
433,15 |
11,6731 |
-7,4665 |
-4,2329 |
-18,3065 |
560 |
438,15 |
11,6689 |
-7,2871 |
-4,0026 |
-18,0249 |
580 |
443,15 |
11,665 |
-7,1200 |
-3,7851 |
-3,8725 |
600 |
448,15 |
11,6054 |
-6,9637 |
-3,5792 |
-1,1273 |
620 |
453,15 |
11,5341 |
-6,8174 |
-3,3837 |
-7,3659 |
640 |
458,15 |
11,4888 |
-6,6801 |
-3,1977 |
-10,5710 |
660 |
463,15 |
11,4579 |
-6,5510 |
-3,0203 |
5,9471 |
680 |
468,15 |
11,356 |
-6,4294 |
-2,8508 |
-2,7138 |
700 |
473,15 |
11,2904 |
-6,3147 |
-2,6885 |
1,2667 |
720 |
478,15 |
11,206 |
-6,2062 |
-2,5329 |
-4,9878 |
740 |
483,15 |
11,1499 |
-6,1035 |
-2,3833 |
5,4308 |
760 |
488,15 |
11,0437 |
-6,0062 |
-2,2393 |
2,9688 |
780 |
493,15 |
10,9469 |
-5,9137 |
-2,1005 |
-3,1573 |
800 |
498,15 |
10,8796 |
-5,8259 |
-1,9665 |
7,5119 |
820 |
503,15 |
10,7564 |
-5,7423 |
-1,8370 |
5,2658 |
840 |
508,15 |
10,6416 |
-5,6626 |
-1,7116 |
4,3858 |
860 |
513,15 |
10,5289 |
-5,5866 |
-1,5900 |
8,4321 |
880 |
518,15 |
10,3903 |
-5,5140 |
-1,4721 |
10,2962 |
900 |
523,15 |
10,2361 |
-5,4446 |
-1,3575 |
20,0878 |
920 |
528,15 |
10,0143 |
-5,3781 |
-1,2460 |
11,3922 |
940 |
533,15 |
9,8384 |
-5,3145 |
-1,1375 |
17,6413 |
960 |
538,15 |
9,6126 |
-5,2535 |
-1,0318 |
18,3790 |
980 |
543,15 |
9,37029 |
-5,1950 |
-0,9286 |
17,7430 |
Fuente: Jara, Michel, 2021
Desviaci�n est�ndar de la energ�a de activaci�n calculada |
||
M�todo de Friedman |
M�todo de KAS |
M�todo de FWO |
49,8748 |
14,2170 |
12,6257 |
Fuente: Jara, Michel, 2021
La Tabla 7 corresponde al conjunto de datos empleados para entrenar la red neuronal artificial y el conjunto de datos descritos en la Tabla 8 son los datos empleados en la validaci�n de la red neuronal artificial.
Tabla 7. Base de datos de entrenamiento para dise�ar la red neuronal artificial
Variables de entrada |
Variable de salida |
||
Tiempo (s) |
Temperatura (K) |
Peso(mg) |
Ea (FWO) |
0 |
298,15 |
12,9641 |
0 |
20 |
303,15 |
12,9628 |
99,9302 |
40 |
308,15 |
12,9406 |
59,3883 |
60 |
313,15 |
12,9570 |
42,8079 |
80 |
318,15 |
12,9116 |
33,7274 |
100 |
323,15 |
12,8819 |
27,9855 |
120 |
328,15 |
12,8009 |
24,0238 |
160 |
338,15 |
12,6239 |
18,9102 |
180 |
343,15 |
12,5470 |
17,1638 |
200 |
348,15 |
12,4823 |
15,7509 |
220 |
353,15 |
12,3655 |
14,5844 |
240 |
358,15 |
12,2756 |
13,6048 |
280 |
368,15 |
12,1713 |
12,0517 |
300 |
373,15 |
12,0805 |
11,4256 |
320 |
378,15 |
12,0275 |
10,8755 |
340 |
383,15 |
12,0013 |
10,3884 |
360 |
388,15 |
11,9703 |
9,9539 |
380 |
393,15 |
11,9038 |
9,5641 |
400 |
398,15 |
11,8859 |
9,2123 |
420 |
403,15 |
11,8848 |
8,8932 |
440 |
408,15 |
11,8486 |
8,6026 |
480 |
418,15 |
11,7875 |
8,0925 |
500 |
423,15 |
11,7671 |
7,8674 |
520 |
428,15 |
11,7452 |
7,6594 |
540 |
433,15 |
11,6731 |
7,4665 |
560 |
438,15 |
11,6689 |
7,2871 |
580 |
443,15 |
11,6650 |
7,1200 |
600 |
448,15 |
11,6054 |
6,9637 |
620 |
453,15 |
11,5341 |
6,8174 |
640 |
458,15 |
11,4888 |
6,6801 |
660 |
463,15 |
11,4579 |
6,5510 |
680 |
468,15 |
11,3560 |
6,4294 |
700 |
473,15 |
11,2904 |
6,3147 |
720 |
478,15 |
11,2060 |
6,2062 |
740 |
483,15 |
11,1499 |
6,1035 |
760 |
488,15 |
11,0437 |
6,0062 |
780 |
493,15 |
10,9469 |
5,9137 |
820 |
503,15 |
10,7564 |
5,7423 |
840 |
508,15 |
10,6416 |
5,6626 |
860 |
513,15 |
10,5289 |
5,5866 |
880 |
518,15 |
10,3903 |
5,5140 |
900 |
523,15 |
10,2361 |
5,4446 |
920 |
528,15 |
10,0143 |
5,3781 |
960 |
538,15 |
9,6126 |
5,2535 |
980 |
543,15 |
9,3703 |
5,1950 |
Fuente: Jara, Michel, 2021
Tabla 8. Base de datos para validar la red neuronal artificial
Variables de entrada |
Variable de salida |
||
Tiempo (s) |
Temperatura (K) |
Peso(mg) |
Ea (FWO) |
140 |
333,15 |
12,7284 |
21,1244 |
260 |
363,15 |
12,2265 |
12,7706 |
460 |
413,15 |
11,8035 |
8,3367 |
800 |
498,15 |
10,8796 |
5,8259 |
940 |
533,15 |
9,8384 |
5,3145 |
Fuente: Jara, Michel, 2021
Utilizando la ecuaci�n para la Fuente: Jara, Michel, 2021
�en Matlab, se normalizan tanto los datos de las variables de entrada y como los datos de salida de la red neuronal artificial.. Estimadores de rendimiento como la correlaci�n lineal y el error cuadr�tico medio permiten determinar que una arquitectura de red que consta de 375 neuronas en la capa oculta es id�nea para un correcto aprendizaje de la red y que permita predecir la energ�a de activaci�n. Algunos de los resultados obtenidos luego de modificar el n�mero de neuronas en la capa oculta se resumen en la Figura 5. Los datos predichos durante el entrenamiento de la red neuronal se presentan en la Tabla 9.
Figura 5. Entrenamiento de la red modificando la cantidad de neuronas en la capa oculta para 375 neuronas
Fuente: Jara, Michel, 2021
Tabla 9. Resultados predichos por la red neuronal artificial en el entrenamiento
Ea Real (TGA) |
Ea Predicha (RNA) |
Ea Real (TGA) |
Ea Predicha (RNA) |
0 |
0,0001 |
5,4446 |
5,4427 |
99,9302 |
99,93 |
5,3781 |
5,3708 |
59,3883 |
59,3883 |
5,2535 |
5,2526 |
42,8079 |
42,8077 |
5,195 |
5,1972 |
33,7274 |
33,7265 |
5,1388 |
5,1392 |
27,9855 |
27,9913 |
5,0847 |
5,0827 |
24,0238 |
24,0128 |
5,0327 |
5,0322 |
18,9102 |
18,928 |
4,9827 |
4,9843 |
17,1638 |
17,1466 |
4,9345 |
4,9341 |
15,7509 |
15,7569 |
4,8881 |
4,8788 |
14,5844 |
14,5789 |
4,8432 |
4,8178 |
13,6048 |
13,6019 |
4,7582 |
4,7515 |
12,0517 |
12,0529 |
4,7178 |
4,7166 |
11,4256 |
11,4305 |
4,6788 |
4,6794 |
10,8755 |
10,8752 |
4,641 |
4,6402 |
10,3884 |
10,3812 |
4,6045 |
4,6073 |
9,9539 |
9,9581 |
4,5691 |
4,5696 |
9,5641 |
9,5637 |
4,5348 |
4,5357 |
9,2123 |
9,2179 |
4,5015 |
4,5002 |
8,8932 |
8,9223 |
4,4692 |
4,4668 |
8,6026 |
8,616 |
4,4379 |
4,4357 |
8,0925 |
8,0881 |
4,4075 |
4,4071 |
7,8674 |
7,8672 |
4,3494 |
4,3529 |
7,6594 |
7,6628 |
4,3215 |
4,3233 |
7,4665 |
7,4638 |
4,2944 |
4,2963 |
7,2871 |
7,2902 |
4,268 |
4,268 |
7,12 |
7,1197 |
4,2423 |
4,2365 |
6,9637 |
6,9623 |
4,2174 |
4,2198 |
6,8174 |
6,8199 |
4,193 |
4,1933 |
6,6801 |
6,6794 |
4,1462 |
4,1416 |
6,551 |
6,5476 |
4,1237 |
4,1226 |
6,4294 |
6,43 |
4,1018 |
4,1029 |
6,3147 |
6,3148 |
4,0803 |
4,0867 |
6,2062 |
6,2065 |
4,0594 |
4,076 |
6,1035 |
6,1074 |
4,039 |
4,0462 |
6,0062 |
6,0056 |
4,0191 |
4,0213 |
5,9137 |
5,911 |
3,9997 |
4,0022 |
5,7423 |
5,7421 |
3,9807 |
3,9664 |
5,6626 |
5,6612 |
3,944 |
3,9602 |
5,5866 |
5,5895 |
3,9262 |
3,9232 |
5,514 |
5,5145 |
3,9089 |
3,9041 |
Fuente: Jara, Michel, 2021
Empleado los datos de validaci�n descritos en la Tabla 8, se realiza un nuevo c�digo con la finalidad de validar la red neuronal y evaluar la predicci�n de la energ�a de activaci�n de los residuos de c�scara de papa en funci�n del aprendizaje de la red neuronal artificial durante su entrenamiento. Los datos predichos en la validaci�n de la red neuronal artificial se observan en Tabla 10.
Tabla 10. Resultados predichos por la red en la validaci�n
Energ�a de activaci�n por el m�todo de FWO |
||
Ea Real (TGA) |
Ea Predicha (RNA) |
Error de predicci�n (%) |
21,1244 |
20,9977 |
0,5999 |
12,7706 |
12,7793 |
0,0679 |
8,3367 |
8,3266 |
0,1213 |
5,8259 |
5,8349 |
0,1543 |
5,3145 |
5,3095 |
0,0949 |
4,8000 |
4,7812 |
0,3914 |
4,3780 |
4,3794 |
0,0311 |
4,1693 |
4,1653 |
0,0957 |
3,9621 |
3,9322 |
0,7538 |
3,8591 |
3,6404 |
5,6662 |
Fuente: Jara, Michel, 2021
Para terminar de validar los datos predichos por la red neuronal es necesario apoyarse de un an�lisis estad�stico que tome en cuenta los datos reales y predichos para la energ�a de activaci�n.
Figura 6. Energ�a de activaci�n real y predicha por la red neuronal artificial
Fuente: Jara, Michel, 2021
a) An�lisis de la varianza ANOVA
Tabla 11. An�lisis de Medias para la energ�a de activaci�n real y predicha
Variable |
Casos |
Media |
L�mite Inferior |
L�mite Superior |
Ea Real |
10 |
7,45406 |
4,858 |
10,0501 |
Ea Predicha |
10 |
7,41465 |
4,81859 |
10,0107 |
Total |
20 |
7,43436 |
|
|
Fuente: Jara, Michel, 2021
Tabla 12. An�lisis ANOVA para la energ�a de activaci�n real y predicha
Fuente |
Suma de Cuadrados |
Gl |
Cuadrado Medio |
Raz�n-F |
Valor-P |
Entre grupos |
0,00776574 |
1 |
0,00776574 |
0,000254299 |
0,9875 |
Intra grupos |
549,681 |
18 |
30,5378 |
|
|
Total (Corr.) |
549,689 |
19 |
|
|
|
Fuente: Jara, Michel, 2021
En la Figura 15 puede igualmente observarse el valor P de la tabla ANOVA y los intervalos de las medias, pueden apreciarse en el �Error! No se encuentra el origen de la referencia.6. En la prueba de rangos m�ltiples, estos intervalos se usan para determinar cu�les medias son significativamente diferentes de otras.
Figura 15. Gr�fico ANOVA para la energ�a de activaci�n
Fuente: Jara, Michel, 2021
Tabla 13. Prueba de rangos m�ltiples para la energ�a de activaci�n real y predicha
Variables |
Casos |
Media |
Semejanza entre variables |
Diferencia |
+/- L�mites |
Ea Predicha |
10 |
7,41465 |
X |
0,03941 |
5,19212 |
Ea Real |
10 |
7,45406 |
X |
Fuente: Jara, Michel, 2021
El m�todo empleado para discriminar entre las medias es el procedimiento de diferencia m�nima significativa (LSD) de Fisher. La �Error! No se encuentra el origen de la referencia.11 describe las medias de los datos reales y predichos de la energ�a de activaci�n, mientras que la �Error! No se encuentra el origen de la referencia.12 describen un valor-P mayor a 0,05; por tanto, no existe una diferencia estad�sticamente significativa entre las medias de los datos reales y los predichos por la red neuronal para la energ�a de activaci�n con un 95,0% de confianza. Adicionalmente, mediante la prueba de rangos m�ltiples presentada en la
Tabla 13, se observa que los datos de la energ�a de activaci�n real y predicha presentan una media homog�nea.
De acuerdo a los resultados de la energ�a de activaci�n calculada por el m�todo de Friedman obtuvo una desviaci�n est�ndar de 49,87; el m�todo de KAS de 14,22 y el m�todo de FWO de 12,63. Por lo tanto, para dise�ar la red neuronal artificial se emplearon los datos de la energ�a de activaci�n calculada por el m�todo de Flynn-Wall-Ozawa (FWO), adem�s que los resultados predichos por la red neuronal para la energ�a de activaci�n se compararon estad�sticamente con los resultados calculados por el modelo cin�tico de Flynn-Wall-Ozawa (FWO); un valor P mayor a 0,05 demuestra que no existe diferencias significativas entre la media de los datos experimentales y los predichos por la red; adicionalmente, la prueba de rangos m�ltiples identifica como grupos homog�neos a la energ�a de activaci�n real y predicha.
Entonces, de acuerdo con el modelo de Flynn-Wall-Ozawa (FWO), este present� menor desviaci�n en sus datos 12,98 y 12,62 en sus diferentes tasas de calentamiento 5�C/min y 15�C/min respectivamente, donde este an�lisis permiti� conseguir la base de datos de energ�a de activaci�n como salidas de la red propuesta.
Conclusiones
� El modelo de predicci�n se basa en una red neuronal prealimentada (Feedforward Neural Networks) de aprendizaje supervisado que emplea datos experimentales del an�lisis termogravim�trico y cin�tico realizado en los residuos de c�scara de papa (Solanum tuberosum) para calcular la energ�a de activaci�n.
� La
base de datos se elabor� primordialmente con los resultados TGA de la variaci�n
del peso de la muestra en funci�n del tiempo y temperatura seleccionando la
tasa de calentamiento de 15 �C/min en atm�sfera inerte con inyecci�n de N2
a 20 mL/min; debido a que el termograma no presenta una diferencia
significativa con la tasa de calentamiento de 5�C/min, adem�s proporciona mayor
cantidad de datos para luego calcular la energ�a de activaci�n mediante modelos
cin�ticos establecidos por Flynn-Wall-Ozawa (FWO), Kissinger-Akahira-Sunose
(KAS) y Friedman, sin embargo, el m�todo FWO con ;
es el m�todo con menor desviaci�n est�ndar y por ende el mejor modelo cin�tico
para calcular la energ�a de activaci�n en los residuos de c�scara de papa.
� La red neuronal artificial se dise�� en el software Matlab y est� conformada por 3 neuronas de entrada correspondiente a tiempo, temperatura y peso de la muestra de c�scara de papa en el TGA, 375 neuronas en la capa oculta y 1 neurona de salida que corresponde a la energ�a de activaci�n predicha; adem�s, la red se entren� con el algoritmo de regularizaci�n bayesiana obteniendo un coeficiente de correlaci�n de 1 y error cuadr�tico medio de 2,327E-09.
Los resultados predichos por la red neuronal para la energ�a de activaci�n se compararon estad�sticamente con los resultados calculados por el modelo cin�tico de Flynn-Wall-Ozawa (FWO); un valor P mayor a 0,05 demuestra que no existe diferencias significativas entre la media de los datos experimentales y los predichos por la red; adicionalmente, la prueba de rangos m�ltiples identifica como grupos homog�neos a la energ�a de activaci�n real y predicha. �
Referencias
- Basu, P. (2018). Biomass Gasification, Pyrolysis and Torrefaction. Elsevier Inc, 497-499.
- Bezerra, E. M., Bento, M. S., Rocco, J. A., Lourenco, K. I., & Pardini, L. C. (2008). Artificial neural network (ANN) prediction of kinetic parameters of (CRFC) composites. Computational Materials Science, 656-663. Recuperado el 11 de Enero de 2021, de https://doi.org/10.1016/j.commatsci.2008.05.002
- Burgaz, E. (2014). Prediction of thermal stability, crystallinity and thermomechanical properties of poly(ethylene oxide)/clay nanocomposites with artificial neural networks. Thermochimica Acta, 159-166. Recuperado el 11 de Enero de 2021, de http://dx.doi.org/10.1016/j.tca.2013.10.032
- Chen, H. (2011). Experimental research on cellulosic biomass pyrolysis and BP neural network prediction. 2011 IEEE Power Engineering and Automation Conference, (p�gs. 26-29). doi:DOI 10.1109/PEAM.2011.6134787
- Chen, N. (2017). Kinetics of coffee industrial residue pyrolysis using distributed activation energy model and components separation of bio-oil by sequencing temperature-raising pyrolysis". Bioresource Technology, 437-760. Recuperado el 12 de Noviembre de 2020, de http://dx.doi.org/10.1016/j.biortech.2016.09.062
- Conesa, J. (2004). Artificial neural network for modelling thermal decompositions. Analytical and Applied Pyrolysis, 343-352. doi:S0165-2370(03)00093-7
- C�rtes, A., & Bridgwater, A. (2015). Kinetic study of the pyrolysis of miscanthus and its acid hydrolysis residue by thermogravimetric analysis. Fuel Processing Technology, 184-193. doi:10.1016/j.fuproc.2015.05.013
- Finkelstein, D. (2015). A Beginner�s Guide to Thermogravimetric Analysis. Technometrics, 522-522. Obtenido de http://www.tandfonline.com/doi/abs/10.1198/tech.2005.s328
- Goh, G. (2017). Deep learning for computational chemistry. Computational Chemistry, 1291-1307. doi:10.1002/jcc.24764
- G�mez, A. (2019). Recuperado el 11 de Diciembre de 2020, de Arrhenius y el c�lculo de la energ�a de activaci�n: https://www.feriadelasciencias.unam.mx/anteriores/feria23/feria105_04_arrhenius_y_el_calculo_de_la_energia_de_activacion.pdf.
- Haefner, N. (2021). Artificial intelligence and innovation management: A review, framework. Technological Forecasting and Social Change, 162. Recuperado el 12 de Enero de 2021, de https://doi.org/10.1016/j.techfore.2020.120392
- Jaiswal, P. (2018). Estudio comparativo de varios algoritmos de entrenamiento de redes neuronales artificiales. 1087-1191. doi:10.1109/ICACCCN.2018.8748660.
- Kumar, A., & Selvarajo, A. (2015). Feedforward neural network modeling of biomass pyrolysis process for biochar production. Chemical Engineering Transactions, 1681-1686. doi:0.3303/CET1545281
- Lecun, Y. (2015). Deep learning. Nature, 436-444. doi:10.1038/nature14539
- MAGAP. (2020). Recuperado el 10 de Noviembre de 2020, de Ministerio de Agricultura, Ganader�a, Acuacultura y Pesca: https://www.agricultura.gob.ec/ecuador-se-proyecta-a-ser-exportador-de-papa/.
- MATHWORKS. (2020). Recuperado el 15 de Diciembre de 2020, de Redes Neuronales Artificiales: https://es.mathworks.com/discovery/neural-network.html.
- Osman, A. (2020). Physicochemical Characterization and Kinetic Modeling concerning Combustion of Waste Berry Pomace. ACS Sustainable Chemistry and Engineering, 17573-17586. doi:10.1021/acssuschemeng.0c07390
- Ozgue, C. (2016). A study to predict pyrolytic behaviors of refuse-derived fuel (RDF): Artificial neural network application". Analytical and Applied Pyrolysis, 84-94. doi:10.1016/j.jaap.2016.10.013
- Ozgue, C. (2018). Activation energy prediction of biomass wastes based on different neural network topologies. doi:10.1016/j.fuel.2018.02.045
- PHOTOMETRICS. (2010). Recuperado el 2021 de Enero de 2021, de Thermogravimetric Analysis (TGA): https://photometrics.net/thermogravimetric-analysis-tga/
- Rosario, B. (2020). Modelo de predicci�n de la concentraci�n de cloroformo durante el proceso de destilaci�n de una mezcla metanol-cloroformo. Ecuador.
- Sunphorka, S. (2017). Application of artificial neural network for kinetic parameters prediction of biomass oxidation from biomass properties. Energy Institute, 51-61. doi:http://dx.doi.org/10.1016/j.joei.2015.10.007
- Yildiz, Z. (2016). Application of artificial neural networks to co-combustion of hazelnut husk-lignite coal blends. Bioresource Technology, 42-47. doi:DOI 10.1016/j.biortech.2015.09.114
� 2022 por los autores. Este art�culo es de acceso abierto y distribuido seg�n los t�rminos y condiciones de la licencia Creative Commons Atribuci�n-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)
(https://creativecommons.org/licenses/by-nc-sa/4.0/).
Enlaces de Referencia
- Por el momento, no existen enlaces de referencia
Polo del Conocimiento
Revista Científico-Académica Multidisciplinaria
ISSN: 2550-682X
Casa Editora del Polo
Manta - Ecuador
Dirección: Ciudadela El Palmar, II Etapa, Manta - Manabí - Ecuador.
Código Postal: 130801
Teléfonos: 056051775/0991871420
Email: polodelconocimientorevista@gmail.com / director@polodelconocimiento.com
URL: https://www.polodelconocimiento.com/