Rector Ing. Héctor C. Brotto. Vice - Rector Ing. Carlos E. Fantini. Decano Ing. Guillermo Oliveto

Volumen 11 Número 1 Abril, 2013 Proyecciones Publicación de la Facultad Regional Buenos Aires Rector Ing. Héctor C. Brotto Vice - Rector Ing. Car

3 downloads 24 Views 9MB Size

Recommend Stories


Por: Ing. Guillermo Bavaresco
PROCEDIMIENTO PARA EL DISEÑO DE EJES Por: Ing. Guillermo Bavaresco Con este procedimiento se quiere dar a conocer una forma rápida y sencilla para el

Ing. Guillermo Bavaresco
MÉTODOS PARA DISEÑAR EL ANÁLISIS DE SEGURIDAD EN EL TRABAJO (AST). Ing. Guillermo Bavaresco Contenido:  Análisis de riesgos  Procedimiento para

ING. GUILLERMO BAVARESCO
ING. GUILLERMO BAVARESCO Es bien sabido que solo el trabajo puede asegurar a la persona la satisfacción de sus necesidades, sin embargo, el trabajo

RECTOR: VICERRECTOR ACADÉMICO: DECANO:
EL INFORME RECTOR: Dr. Rodrigo Noguera Calderón VICERRECTOR ACADÉMICO: Dr. Germán Quintero Andrade DECANO: Pbro. Dr. Carlos Mauricio Uribe Blanco DIR

Story Transcript

Volumen 11 Número 1 Abril, 2013

Proyecciones Publicación de la Facultad Regional Buenos Aires

Rector

Ing. Héctor C. Brotto

Vice - Rector

Ing. Carlos E. Fantini

Decano

Ing. Guillermo Oliveto

Director

Lic. Juan Miguel Languasco, Facultad Regional Buenos Aires

Comité Editorial

Lic. Gladys Esperanza, Facultad Regional Buenos Aires Dr. Fernando Gache, Facultad Regional Buenos Aires

Diseño y Diagramación

Marcela Laura Ferritto, Facultad Regional Buenos Aires ISSN 1667-8400 (Versión impresa) ISSN 1853-6352 (Versión en línea) Registro de la Propiedad Intelectual No 5086253 (Versión impresa) Registro de la Propiedad Intelectual No. 5073167 (Versión en línea)

Propietario Facultad Regional Buenos Aires Medrano 951 (C1179AAQ) Buenos Aires, República Argentina

Universidad Tecnológica Nacional

1

2

Volumen 11 Número 1 Abril, 2013

Proyecciones Publicación de la Facultad Regional Buenos Aires Consejo Editorial Dr. Julio Cabero Almenara - Universidad de Sevilla, España Dr. Ricardo Armentano Feijoo - Universidad Tecnológica Nacional/ Universidad Favaloro, Argentina Dr. Daniel Bia Santana - Universidad de la República, Uruguay Dra. Zulma Cataldi - Universidad Tecnológica Nacional, Argentina Dra. María Cristina Donnamaría - Universidad Nacional de La Plata CONICET, Argentina Dr. Miguel Ángel Laborde, Universidad de Buenos Aires, CONICET, Argentina Dr. Walter Edgardo Legnani - Universidad Tecnológica Nacional, Argentina Dr. Mario Gerardo Piattini Velthuis - Universidad de Castilla - La Mancha, España Dr. Eduardo Jaime Quel - Universidad Tecnológica Nacional - CITEFA CONICET, Argentina Dra. Cecilia Verónica Sanz - Universidad Nacional de La Plata, Argentina Dr. Saverio Roberto Strangis - Cyclotope, Houston, Texas, Estados Unidos Dra. Lurdes Marlene Seide Froemming - Universidade Regional do Noroeste do Estado do Río Grande do Sul, Brasil M.Sc. Ignacio Vélez Pareja - Pontificia Universidad Javeriana, Colombia

Universidad Tecnológica Nacional

3

Volumen 11 Número 1 Abril, 2013

Proyecciones Publicación de la Facultad Regional Buenos Aires

Proyecciones es una publicación semestral, destinada a la difusión de trabajos originales de investigación en el campo de la ingeniería, en todas sus ramas, de su enseñanza y de las ciencias conexas. Asimismo se publican trabajos originados en las tesis desarrolladas en el ámbito de las carreras de posgrado que se dictan en la Facultad Regional Buenos Aires Eventualmente son aceptadas también obras de revisión en temas específicos. Todos los trabajos recibidos son objeto de revisión por parte de evaluadores externos, árbitros, y del Comité Editorial, según la metodología descripta en las Instrucciones para la Presentación de Artículos. Esta publicación cuenta también con una versión en línea, a la cual se puede acceder ingresando en el sitio www.sectip.frba.utn.edu.ar/proyecciones. En el sitio se encuentra, además del último volumen publicado, la colección completa de Proyecciones desde el año 2003. Esta colección está disponible en modo digital mediante la colaboración del Laboratorio de Procesamiento de Imágenes Documentales (LAPID) de la Subsecretaría de Gestión Tecnológica de la Facultad Regional Buenos Aires. La información contenida en los artículos, así como las opiniones y los juicios vertidos, reflejan la creación y el pensamiento de los autores y no constituyen toma de posición o expresión por parte del Comité Editorial o de la facultad. Se permite la reproducción total o parcial de los artículos publicados en Proyecciones, con expresa mención de la fuente y autorización de la Dirección.

4

Proyecciones, Vol.11 No. 1, Abril de 2013

INDICE

7

Editorial

9

Presentación

11

Influencia del comparador en las correcciones por comportamiento no ideal del flujo epitérmico y su implicancia en los métodos paramétricos de análisis por activación neutrónica

31

Estudio comparativo de la congelación de papa (Solanum tuberosum L.) sometida a diferentes pretratamientos.

47

Modelado para la predicción de enfermedades en cultivos de alto valor comercial

61

Evaluación financiera de proyectos de inversión: El caso de la Argentina

69

Evaluación de los parámetros de color y de textura del zapallo anco (Cucurbita moschata, D.) sometido a diferentes tratamientos de deshidratación osmótica

81

La regionalización como particularidad institucional de la Universidad Tecnológica Nacional

91

Caracterización tecnológica de morteros con escombros de albañilería molido

Pablo Mendoza Hidalgo, Isaac Marcos Cohen, Eduardo H. Montoya Rossi

Patricia A. Della Rocca, Luis Alberto Roche, Rodolfo H. Mascheroni

Enrique Bombelli, Ricardo Moschini, Eduardo Wright, María Virginia López, María del Carmen Fabrizio

Carlos Emilio Martínez; Juan Santiago Ledesma; Alfredo O. Russo

Reynaldo J. Silva Paz , Gabriela I. Denoya, Juan M. Languasco, Patricia A. Della Rocca

María Eva Vigliecca

Rubén Alberto López, Marcelo Masckauchan, Carlos Alberto Di Salvo, José Luis Verga, Alfredo Graich

5

6

Proyecciones, Vol.11 No. 1, Abril de 2013

Editorial Es un gusto para mí presentar el primer número del onceavo año de Proyecciones, la revista científica de la Facultad Regional Buenos Aires de la Universidad Tecnológica Nacional. Este año es especial para la gestión que encabezo, ya que a fin de año concluiremos nuestro período para el cual fuimos elegidos en el año 2009. Con lo cual es un año para hacer balances y para contribuir a la proyección de los próximos años de nuestra institución. En relación a la Revista, desde nuestra gestión hemos desarrollado varias iniciativas que tuvieron (y tienen) como principal propósito el impulsar la publicación, jerarquizarla y que nuestros investigadores incrementen la cantidad de publicaciones no sólo en ésta revista sino también en otras, en especial en aquellas que son internacionales con referato. Desde nuestro primer año de gestión, el año 2009, la publicación es desarrollada bajo el ámbito de la Secretaría de Ciencia, Tecnología e Innovación Productiva (SeCTIP), la más apropiada de las Secretarías para llevar adelante las políticas de promoción de la Revista. En la SeCTIP se reúne semanalmente su Comité Editorial, se almacena el archivo de la revista y se organiza la distribución de cada volumen. En nuestra gestión, también, hemos duplicado la cantidad de ejemplares que se distribuyen por número. Al inicio de nuestra gestión el tiraje era de 600 ejemplares. Hoy la tirada es de 1200 ejemplares. A esto agregamos que en su mayoría la revista se envía gratuitamente a instituciones (principalmente nacionales) vinculadas a la investigación científica-tecnológica, tales como bibliotecas de universidades, facultades dedicadas a la enseñanza de la ingeniería y de las ciencias (en particular a las Facultades Regionales de la UTN), institutos de investigación tecnológicas, ministerios, colegios profesionales, etc. Por otra parte, desde el primer número de 2011 se implementó la versión Internet de “Proyecciones”. A partir del presente número se cuenta con la colección completa 2003 - 2013. Esto requirió además, la obtención del Número Internacional Normalizado de Publicaciones Seriadas (ISSN), así como la conversión de todos los artículos publicados a una versión pdf digital para su inclusión, con libre acceso, en la página de la FRBA.Vaya nuestro agradecimiento al equipo de trabajo del Laboratorio de Procesamiento de Imágenes Documentales (LAPID), de la Secretaría de Cultura y Extensión Universitaria de nuestra facultad. Con la aprobación del Consejo Directivo de la FRBA en febrero de 2012 se constituyó un Consejo Editorial para la Revista, integrado por un muy selecto elenco de académicos y profesionales, de destacada trayectoria en los distintos campos del saber con que se relaciona la publicación, tanto de desempeño local como extranjero.

7

Cabe recordar también que el año pasado, en el 2012, la Facultad celebró los diez primeros años de la publicación ininterrumpida de “Proyecciones”. En dicho marco se realizó en el Aula Magna de nuestra FRBA a comienzos de diciembre un agasajo a los autores, en la que me acompañaron el Vicedecano, Secretarios, Subsecretarios, Directores Departamentales y personal docente y administrativo vinculado a la gestión de la Revista, además de quienes integraron e integran el Comité Editorial. Continuando con la política del más firme respaldo a la implementación del Doctorado en Ingeniería en la FRBA, en los volúmenes de abril y octubre de 2012 se publicaron las dos primeras tesis doctorales presentadas y aprobadas en este marco, por los Dres. Ings. Jacobo Salvador y Sergio Gerardo Strocovsky, respectivamente. Cabe mencionar que durante el año 2012 el mencionado Doctorado obtuvo la categoría A de la Comisión Nacional de Comisión Nacional de Evaluación y Acreditación Universitaria (CONEAU). En atención al aumento de artículos recibidos durante 2012 se incrementó en un 40% la cantidad de páginas. Asimismo, se incluyó el uso del color en el interior de la revista, cuando el uso del mismo, en gráficos y figuras, redunde en un cambio significativo de la comprensión técnica del trabajo. Todo lo antedicho fue llevado a cabo dentro del marco de premisas que caracterizaron a la publicación desde su aparición: arbitrajes externos garantizando el acceso al mejor nivel académico posible, accesibilidad gratuita a la totalidad de los artículos publicados y ausencia de sesgo comercial en sus páginas. Por último, para el año 2013 se profundizará el cumplimiento de los criterios y recomendaciones del Centro Argentino de Información Científica y Tecnológica (CAICYT-CONICET), entre ellos orientar a la relación 40/60 entre autores locales/autores externos a la FRBA y promover la vinculación con autores internacionales, priorizando los de lengua castellana y aceptando eventualmente artículos en portugués. Aprovecho la oportunidad para felicitar a los autores de los trabajos por haber pasado las instancias evaluativas, al Comité Editorial por el excelente trabajo que desarrollan y el esfuerzo que les implica, y a todos los involucrados en hacer llegar esta revista a sus manos, por el orgullo que nos hacen sentir a los responsables de la Facultad. ING. GUILLERMO OLIVETO Decano

8

Proyecciones, Vol.11 No. 1, Abril de 2013

Presentación Con el ejemplar que tiene en sus manos, amigo lector, comienza el año número 11 de nuestra revista Proyecciones. El presente número comienza con un estudio teórico y experimental referido a la elección del comparador óptimo en los métodos paramétricos de análisis por activación en reactores nucleares, través del parámetro denominado α. El artículo “Influencia del comparador en las correcciones por comportamiento no ideal del flujo epitérmico y su implicancia en los métodos paramétricos de análisis por activación neutrónica”, es un trabajo basado en una tesis presentada por P. Mendoza Hidalgo, en el nivel cuaternario de esta Facultad, para su Maestría en Radioquímica. Su director y codirector también autores son, I. M. Cohen y E. H. Montoya Rossi respectivamente. A continuación se presenta un trabajo en el que los aspectos experimentales de la investigación fueron realizados en forma conjunta en los laboratorios de Ingeniería Química de la FRBA y del CIDCA en la U. N. de La Plata. En los mismos se aplicaron diversas tecnologías de secado de alimentos: la combinación de métodos usando deshidratación osmótica y microondas (en la FRBA), precediendo a una etapa de congelación en un túnel de bandejas piloto (CIDCA). Luego se aplicaron diferentes modelos matemáticos a los datos experimentales a fin de predecir los tiempos requeridos para el congelamiento, de gran significación económica. Este artículo se titula “Estudio comparativo de la congelación de papa (Solanum tuberosum L.) sometida a diferentes pretratamientos”, sus autores son P. A. Della Rocca, L. A. Roche y R. Mascheroni. El trabajo “Modelado para la predicción de enfermedades en cultivos de alto valor comercial” elaborado por E. Bombelli, R. Moschini, E. Wright, M. V. López, M. C. Fabrizio, G. Barberis y M. Rivera propone modelos predictivos matemáticos que permiten explicar y cuantificar el lento progreso epidémico (observado y simulado) de las manchas foliares ocasionadas por el hongo Altenaria tenuissima en plantaciones de arándano alto. La importancia de dichos modelos radica en que permitirán disminuir el impacto de las enfermedades en las cosechas en los cultivos intensivos en la Argentina. C. E. Martínez, J. S. Ledesma y A. O. Russo son los autores del artículo “Evaluación financiera de proyectos de inversión: el caso de Argentina.” Para prevenir las fluctuaciones de la tasa de interés que ocurren en la Argentina, con motivo de crisis recurrentes, el presente trabajo analiza las condiciones de las decisiones de inversión que deben tener en cuenta las empresas, a efectos de permitir que para todo proyecto que tenga un Valor Presente Neto

9

( VPN) positivo y se considere razonable, el Período de Repago no supere los dos años y evite exponer a aquellas a un riesgo impredecible. El siguiente artículo se denomina “Evaluación de los parámetros de color y de textura del zapallo anco (“Cucurbita moschata, D.”) sometido a diferentes tratamientos de deshidratación osmótica” siendo sus autores R. J. Silva Paz, G. I. Denoya, J. M. Languasco, P. A. Della Rocca. Se trata de un trabajo experimental en que se estudian los efectos del proceso de deshidratación de ese zapallo sobre parámetros de calidad tales como el color y la textura del producto terminado. Se establecieron las condiciones óptimas de concentración y el efecto del escaldado para dicha proceso. El estudio de caso, elaborado por María Eva Vigliecca conforma el siguiente trabajo titulado La regionalización como particularidad institucional de la Universidad Tecnológica Nacional. La autora analiza el modelo organizacional regionalizado de la universidad, desde un enfoque sociohistórico, organizacional y pedagógico. La investigación intenta precisar, qué características particulares la conformaron en comparación con otras instituciones de Educación Superior. El estudio se completa con la recuperación de un conjunto de testimonios de actores que participaron de la vida institucional universitaria desde la creación de la entonces Universidad Obrera Nacional. Finalmente, presentamos la Nota Técnica de los autores R. A. López, M. Masckauchan, C. A. Di Salvo, J. L. Verga y A. Graich denominada “Caracterización tecnológica de morteros con escombros de albañilería molido”. En la misma se exponen resultados experimentales del análisis de las características técnicas, físicas y mecánicas, de escombros de albañilería provenientes de obras edilicias y de morteros producidos con ellos. Como siempre, esperamos que estos artículos contribuyan al desarrollo científico y tecnológico del país y de las disciplinas involucradas.

FE DE ERRATA: Deseamos rectificar una información errónea generada en el proceso de edición publicada en el Año 10, Nº 2 de octubre de 2012, página 72, en el artículo firmado por el Dr. N. Rotstein, la fecha del fallecimiento del Dr. Constantino Ferro Fontán ocurrió el 05 de abril de 2006. LIC. AGUSTÍN CAMPERO Secretario de Ciencia, Tecnología e Innovación Productiva

10

Proyecciones, Vol.11 No. 1, Abril de 2013

Influencia del comparador en las correcciones por comportamiento no ideal del flujo epitérmico y su implicancia en los métodos paramétricos de análisis por activación neutrónica Pablo Mendoza Hidalgo1, Isaac Marcos Cohen2,3, Eduardo H. Montoya Rossi1 Instituto Peruano de Energía Nuclear, División de Técnicas Analíticas Nucleares, Av. Canadá 1470, Lima 41, Perú 2 Universidad Tecnológica Nacional, Facultad Regional Avellaneda, Secretaría de Ciencia, Tecnología y Posgrado. Av. Mitre 750, 1870 Avellaneda, Argentina 3 Universidad Tecnológica Nacional, Facultad Regional Buenos Aires, Departamento de Ingeniería Química, Av. Medrano 951, (C1179AAQ), Ciudad Autónoma de Buenos Aires, Argentina 1

[email protected] Recibido el 20 de Febrero de 2013, aprobado el 12 de Marzo de 2013

Resumen Se estudia la importancia de la elección del comparador en los métodos paramétricos de análisis por activación en reactores nucleares, con énfasis en las correcciones por comportamiento no ideal del flujo epitérmico a través del parámetro α. Se propone un nuevo método para la determinación simultánea de este parámetro, de los flujos térmico y epitérmico y de la temperatura neutrónica. Se evalúan diferentes conjuntos de monitores y se discuten los resultados obtenidos. PALABRAS CLAVE: ANÁLISIS POR ACTIVACIÓN PARAMÉTRICO – REACTORES NUCLEARES – PARÁMETRO ALFA

Abstract The importance of the choice of the comparator in the parametric methods of activation analysis in nuclear reactors, with emphasis in the corrections by non-ideal behaviour of the epithermal flux through the α parameter, is studied. A method for simultaneous determination of this parameter, together with the thermal and epithermal fluxes and neutron temperature, is proposed. Different set of monitors are evaluated and the obtained results are discussed. KEYWORDS: PARAMETRIC ACTIVATION ANALYSIS – NUCLEAR REACTORS – ALPHA PARAMETER

*Trabajo basado en la tesis presentada por P. Mendoza Hidalgo para optar al título de Magíster en Radioquímica (Facultad Regional Buenos Aires, Universidad Tecnológica Nacional) bajo la dirección de I. M. Cohen y la codirección de E. H. Montoya Rossi.

11

Introducción El análisis por activación neutrónica ocupa un lugar importante en el contexto de las técnicas analíticas. Su relativa simplicidad y adecuada sensibilidad, así como gran adaptabilidad al análisis multielemental, sientan las bases de una técnica propicia para el análisis cuantitativo no destructivo. Sin embargo, la aplicación multielemental es a veces engorrosa en su forma clásica, que consiste en la irradiación y la subsecuente medición de un patrón para cada elemento presente en la muestra a ser evaluada. Este procedimiento posee desventajas obvias, fundamentalmente la imposibilidad de cuantificar elementos no esperados en el análisis, así como varias dificultades en asegurar condiciones idénticas de irradiación, tanto para la muestra como para el estándar. Estos factores, a los que se suma la variedad de muestras a analizar, hacen difícil aplicar una metodología estandarizada. Un primer esfuerzo en poder simplificar dicha tarea fue realizado por Girardi y colaboradores (1965), quienes definieron valores empíricos k, sobre la base del cociente de actividades específicas del radioisótopo investigado y de un único comparador, ambos medidos bajo condiciones operativas bien establecidas, que en la jerga nuclear se definen mediante la relación de flujo térmico al flujo epitérmico (φt/ φe, simbolizada más tarde como f). La exactitud del método depende entonces de la vigencia del valor k en el tiempo, cuya validez queda restringida a sitios específicos de irradiación, dado que la relación de sección eficaz efectiva depende del espectro neutrónico del reactor y éste, lejos de ser constante, varía según la posición. En 1975, Simonits y colaboradores propusieron que el camino más óptimo para generalizar el método del comparador único era la transformación de los valores k en los denominados factores k0, los cuales son independientes de las condiciones de irradiación y medición. Simonits y colaboradores (1976), introdujeron luego la idea de emplear al zirconio como monitor de flujo bi-isotópico, siendo la principal razón para tal propuesta la gran diferencia entre los valores І0/σ0 (cocientes entre integral de resonancia y sección eficaz, conocidos más tarde como Q0) para las reac-

ciones 94Zr(n,γ)95Zr y 96Zr(n,γ)97Zr, que reducía el factor de error de propagación en los cálculos. Adicionalmente, una situación favorable con respecto a las energías gamma medidas llevaba a la no necesidad de conocer la eficiencia de detección, y fortalecía en principio su utilización. A la noción tradicional de un flujo ideal en la región epitérmica, dependiente de la inversa de la energía, se contrapone la necesidad de considerar un comportamiento diferente, donde resulta preciso introducir un factor de corrección, conocido genéricamente como α. La inclusión de este parámetro implica una nueva definición para la integral de resonancia, que involucra el concepto de energía efectiva de resonancia, Ēr (Ryves y Paul, 1968). Bajo tales consideraciones, el extremo valor de la energía de resonancia de la reacción (n,γ) para el 94Zr, así como el del valor del cociente І0/σ0 del 96Zr, hacen que la determinación de flujos se torne bastante incómoda e incierta (De Corte, 2001). Esta situación se refleja en una continua reevaluación de tales datos (Simonits y colaboradores, 2000); (Smodis y colaboradores, 2003); (Lin y colaboradores, 2009). Para la determinación del parámetro α, si bien se dispone de una variedad de metodologías cuya diferencia principal radica en el uso o no de una cobertura de cadmio, se aplica generalmente el método del triple monitor desnudo (De Corte y colaboradores, 1979) . Usualmente se emplea al conjunto 197Au-94Zr96 Zr como monitores en la determinación de α. Su ordenamiento en las expresiones de cálculo está definido por sus valores de Q0 y Ēr, obedeciendo a una secuencia de combinación en donde Q0,1 < Q0,2 < Q0,3 (y preferentemente, Ēr,2 < Ēr,1 < Ēr,3) para evitar que los valores medios, tanto de Q0 como de Ēr , coincidan en la secuencia y conduzcan a un inaceptablemente alto error de propagación. Considerando la combinación de monitores mencionada, la incertidumbre total asociada al valor de α llega a alcanzar hasta un 86% para α = 0,015 (f = 25) y 39% para α = 0,084 (f = 72) (De Corte y colaboradores, 1981). Si bien la incertidumbre asociada a la determinación de α es considerable, este método fue, has-

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

12

ta el presente trabajo, la única alternativa con respecto a los que utilizan cobertura de cadmio, siendo de suma importancia para el análisis por activación mediante reacciones (n,γ) y el empleo del método estandarizado del k0.

vo avance acerca del empleo de comparadores en el análisis por activación neutrónica instrumental paramétrico.

Tal grado de incertidumbre disminuye sustancialmente cuando se emplea un mayor número de monitores y luego de una selección cuidadosa en los valores de Q0 y Ēr y de los parámetros nucleares especialmente referidos a la elección del monitor de referencia o comparador.

La ecuación fundamental del análisis por activación neutrónica se puede expresar de modo general como:

Considerando la importancia de los parámetros mencionados en el cálculo de la concentración y que su variabilidad afecta a la incertidumbre de la determinación, se han emprendido esfuerzos para mejorar tal situación. En ese sentido, un método que involucre un mayor número de monitores sería la mejor opción. Conceptualmente nos estaríamos refiriendo al método de monitores desnudos múltiples, pero tanto en este método como en el conocido como “triple monitor desnudo”, el valor de α es evaluado a partir de funciones implícitas mediante métodos iterativos. Un planteamiento alternativo fue propuesto recientemente por los autores Montoya y colaboradores, 2010: mediante un conjunto de monitores: 45Sc, 50Cr, 55Mn, 58Fe, 59Co, 64Zn, 94Zr, 96 Zr, 98Mo, 176Lu y 197Au, se determinan simultáneamente el flujo térmico y el epitérmico, así como el valor de α, aplicando un método modificado al desarrollado por Kestelman y colaboradores (1995). Dicha modificación requiere la exactitud de los datos de entrada de sección eficaz, integral de resonancia y factores g de Westcott, para obtener un correcto valor de α a partir del punto de cruce de las curvas correspondientes de todas las reacciones (n,γ), permitiéndonos además conocer el desempeño de cada monitor. El presente trabajo tuvo como objetivo principal la realización de un estudio sistemático, tanto teórico como experimental, acerca de la influencia del comparador en las correcciones por comportamiento no ideal del flujo epitérmico, cuando se emplean métodos paramétricos. A partir de la realización de la propuesta antes enunciada se pretende generar un significati-

Consideraciones Generales

Donde A0 es la actividad obtenida al final de la irradiación, M es el peso atómico del elemento de interés, θ es la abundancia isotópica del isótopo precursor, w la masa del elemento analizado presente en la muestra, v la velocidad del neutrón incidente, σ la sección eficaz de captura del isótopo a activar, φ el flujo neutrónico con que se irradia la muestra y S es el llamado factor de saturación. Es evidente la relación de proporcionalidad directa entre la actividad obtenida al final de la irradiación y la masa del elemento químico de interés presente en la muestra. Si bien su determinación aparentemente es de directa ejecución a partir de los parámetros y constantes involucradas, la evaluación de la integral que representa la tasa de reacción por núcleo es de manejo complejo. De acuerdo con Erdtmann (1986) no se dispone de descripciones teóricas exactas de σ(v), φ(v) por medio de funciones analíticas integrables. Por lo tanto, para evaluar la integral de la ecuación de activación, se han establecido algunas convenciones basadas en propiedades de σ(v) y φ(v), determinadas en forma experimental y que correctamente empleadas dan resultados aceptablemente exactos. En el presente trabajo se adoptará la convención de Stoughton y Halperin (1959) que considera a la temperatura neutrónica como parámetro de cálculo, tal como sucede en la convención de Westcott, pero sin su complejidad metodológica. Situación presente en torno a la determinación y las perspectivas de aplicación del parámetro α Una de las mayores dificultades encontradas

P. Mendoza Hidalgo et al. - Influencia del comparador en las correcciones...

13

en el análisis por activación paramétrica es la desviación del comportamiento ideal de la componente epitérmica del flujo neutrónico. Su no consideración puede conducir a errores sistemáticos, en términos de concentración, dependiendo de las características de la posición de irradiación (f,α) y del comparador empleado. Aunque la expresión que describe tal comportamiento está dada por (E1+α)-1, en donde α varía usualmente de -0,05 < α 10, una variación de 7% hasta 42,6% con respecto a los valores de Q0 dados por Simonits y colaboradores (2000) al irradiar en posiciones cercanas al núcleo con abundante berilio circundando los elementos combustibles. Adujo como causas probables una mayor moderación neutrónica por el berilio en comparación con el hidrógeno, o depresión de la componente epitérmica debido a picos de resonancia del 238U, con la consecuente desviación en el comportamiento 1/E1+α. Esta distorsión ha sido también planteada por Koster-Ammerlaan y colaboradores (2011) en estudios reportados sobre diferentes expe-

riencias en las que se empleó zirconio y oro como monitores de flujo para la determinación del valor de α, atribuyéndola a la formación y termalización de los fotoneutrones producidos por el berilio, con directo impacto en la activación por resonancia de 95Zr y 97Zr. No obstante, el aspecto más relevante, prácticamente no tenido en cuenta, es que la adopción de la nueva expresión para la descripción de la componente epitérmica del flujo implica que los valores de las constantes nucleares obtenidos en un reactor no son inmediatamente aplicables a otros, y ni siquiera lo son los medidos en una posición específica de un reactor con respecto a las otras. Así, muchos de los datos de integrales de resonancia y cocientes Q0 existentes en la literatura serían cuestionables, en tanto no se haya caracterizado adecuadamente el espectro en la posición de irradiación (Arribére y colaboradores, 2005). Desarrollo e implementación de un nuevo método para la caracterización de los flujos neutrónicos térmico y epitérmico Si bien uno de los métodos más empleados para la medición de flujos es la relación de cadmio, ésta presenta inconvenientes para la irradiación simultánea de los monitores con las muestras, por la fuerte depresión del flujo en sus proximidades y la generación de dosis importantes por la activación de la cubierta. Por tal razón, resulta conveniente considerar la posibilidad de desarrollar otros métodos, donde las muestras puedan irradiarse en forma desnuda. Una alternativa para el desarrollo del nuevo método aquí presentado es la activación de dos o más isótopos, elegidos de forma tal que se cumpla: Q0,1/Q0,2 >> 1 al menos para un par de ellos. Para cada uno de los isótopos, la actividad normalizada a decaimiento cero del monitor i puede ser expresada por la ecuación de activación según la convención de Stoughton y Halperin (modificada para tener en cuenta la no idealidad del espectro neutrónico epitérmico) como: (1)

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

14

Siendo:

Donde: i = denota las constantes asociadas a un isótopo j = denota las constantes asociadas a una línea gamma del isótopo i g(T) es el factor de Westcott y ΔIi = 0,56σ0 es la integral de resonancia entre E = μkT y la energía de corte de cadmio, siempre que ningún pico de resonancia exista en dicho intervalo. Mediante la ecuación (1) se calcula para cada monitor una serie de valores del flujo neutrónico térmico, en función de una serie de valores arbitrariamente dados para el flujo epitérmico. Las curvas generadas por la ecuación (1) tienen pendientes diferentes, de acuerdo con el comportamiento del monitor, produciéndose puntos de cruce cuyos valores de coordenadas indicarán los valores de los flujos, térmico y epitérmico, buscados. Esto significa que si los datos de entrada de sección eficaz, integral de resonancia y factores g de Westcott son exactos, un valor correcto de α debe llevar a un punto único de cruce para las curvas correspondientes a todas las reacciones implicadas, infiriéndose que todos los monitores deben rendir los mismos valores para la caracterización (φt y φe) de la posición evaluada. Adicionalmente, si el valor del factor de Westcott para 176Lu es correcto, la curva para la reacción 176Lu(n,γ)177Lu debe cruzar a las demás curvas en el mismo punto. Entonces, tanto α como Tn se convierten en parámetros de ajuste para el punto de cruce entre las curvas calculadas, lo cual a su vez proporciona la base de su determinación. Una vez obtenidos los valores promedio, tanto del flujo neutrónico térmico como epitérmico, se calcula el valor de f como la razón φt /φe. Es este punto en donde se propone además, como innovación, el empleo del código numérico de Monte Carlo para la simulación de los parámetros de flujo, con el objetivo de evaluar la incertidumbre total asociada a la determinación. Esta metodología ha sido aceptada por la

ISO como técnica validada para el cálculo de incertidumbres de mediciones experimentales (GUM, 2004). Koster-Ammerlaan y colaboradores (2008) demostraron la factibilidad de emplear el método numérico de Monte Carlo para el cálculo de las incertidumbres de los parámetros f y α mediante simulación (N=1000) variando aleatoriamente la actividad de los monitores involucrados en ± 0,5%. Steele y Douglas (2005) demostraron que se podía simplificar su utilización mediante el uso de Microsoft Excel, que ofrece una generación de números pseudoaleatorios adecuada. Se presupone que tales números pseudoaleatorios siguen una distribución similar a la variable de interés estudiada, lo que conduce al planteamiento siguiente: si la actividad específica tiene una distribución uniforme, de acuerdo con el teorema del límite central, al ser la suma de n variables aleatorias e independientes su función de distribución se aproxima bien a una distribución normal. Entonces, si se generan valores independientes no correlativos de φt, φe, f y α, considerando una generación lo suficientemente grande (N > 30, N = número de interacciones) la media será la misma que la de la variable de interés, y la desviación estándar de la media muestreal será aproximadamente el error estándar. Esta metodología permite obviar las complejas expresiones de cálculo relacionadas con la evaluación de la incertidumbre combinada siguiendo la ley de propagación; asegura también la independencia no correlativa de las variables de interés, por la naturaleza plenamente aleatoria de sus valores de entrada. Estructura del programa de cálculo Con el fin de evaluar la consistencia de los datos nucleares y caracterizar los parámetros del flujo neutrónico, se desarrolló una aplicación en el lenguaje Visual Basic for Applications de Mi-

P. Mendoza Hidalgo et al. - Influencia del comparador en las correcciones...

15

crosoft Excel, que permite modificar los datos involucrados en forma directa. El programa está estructurado en tres partes u hojas (en el libro electrónico): a) Datos y Cálculos Las variables experimentales y las constantes seleccionadas se agrupan como se indica a continuación. Los datos de entrada (1 a 12, experimentales; 13 a 24, de tablas) son: 1. m, masa de monitor en (μg) 2. GTh, factor de autoblindaje térmico 3. Gepi, factor de autoblindaje epitérmico 4. coi, corrección por coincidencia 5. ε, eficiencia geométrica de la medición 6. ti, tiempo de irradiación 7. td, tiempo de decaimiento 8. tv, tiempo de conteo prefijado o vivo 9. tr, tiempo de conteo real 10. Cn, área neta de pico pleno 11. α, valor arbitrario de alfa para una primera aproximación 12. unc, incertidumbre (k=2) para variable aleatoria de actividad A 13. J, radioisótopo 14. M, peso atómico 15. σ0 (b), sección eficaz de captura 16. I0, integral de resonancia 17. θ, abundancia isotópica 18. g(t), factor de Westcott 19. Q0(0), valor de relacion I0/σ0 20. Ēr, energía efectiva de resonancia 21. T1/2, periodo de semidesintegración 22. γ, intensidad de emisión gamma para pico pleno de energía 23. valor de k0 de tablas 24. valor de k0 téorico Los algoritmos de cálculo utilizados contemplan en forma secuencial: - Determinación del valor de I0(α) según un valor de α inicialmente propuesto - Cálculo del valor de Q0(α) + 0,56 - Generación de la variable aleatoria (actividad específica) - Cálculo del flujo neutrónico térmico - Área esperada del monitor según condiciones temporales y valores de flujo neutrónico aplicados - Cálculo del valor k0 experimentalmente obtenido b) Análisis gráfico

Se evaluó el comportamiento de las curvas expresadas como flujo neutrónico de los diferentes monitores planteados en el estudio. Mediante ajuste iterativo de los parámetros de Tn y α se interceptaron las curvas correspondientes a los monitores de alto valor de I0/σ0 con los de comportamiento 1/v respectivos. Dicho ajuste se realizó hasta obtener el menor valor de coeficiente de variación. c) Simulación numérica de Montecarlo Obtenidos los valores ajustados de φt, φe, f y α se calcularon por simulación de Montecarlo los parámetros de incertidumbre asociada expresados como σ (1s) y desviación estándar relativa porcentual, aplicando un número N de interacciones lo suficientemente elevado (mínimo 30). Evaluación de la consistencia metodológica La determinación experimental de k0,x (correspondiente al isótopo x) empleando al oro como comparador, está formulada según:

Una primera evaluación de los datos seleccionados, y por lo tanto de su calidad, la constituye la concordancia entre los valores de k0 obtenidos experimentalmente y los valores tabulados usualmente empleados (De Corte y Simonits, 2003). Una segunda evaluación, también concerniente a la calidad de los resultados, está referida al grado de similitud entre el área del pico de energía plena de interés experimentalmente obtenido y el calculado a partir de los datos y parámetros seleccionados. Selección de Datos Nucleares Para seleccionar los datos nucleares empleados se decidió, no la elección del “mejor valor” sino la de un conjunto de valores consistentes, siendo éste el criterio prioritario aplicado. Así, se tomaron preferentemente valores publicados por el mismo grupo de trabajo. Las fuentes seleccionadas para los diferentes datos fueron: Secciones eficaces e integrales de resonancia:

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

16

Fig. 1. Vista lateral del arreglo geométrico de medición. Distancia para geometría de referencia A1 = 210,7 mm y para geometría rutinaria A2 = 58,2mm. De Corte y Simonits (2003) y por Mughabghab (2003). Masas atómicas relativas y abundancias isotópicas: Wieser (2006) y Rossman y Taylor (1998), respectivamente. Intensidades de las transiciones: base de datos del Laboratoire Nationale Henri Becquerel (LNHB) de Francia (www.nucleide.org/DDEP_ WG/DDEPdata.htm). Periodos de semidesintegración: base de datos: Decay Data Evaluation Proyect, actualizada por LNHB (www.nucleide.org/DDEP_WG/ DDEPdata.htm) Radionucleídos no evaluados por DDEP: IAEA (2007). Energías efectivas de resonancia (Ēr): De Corte y colaboradores (2001); versión electrónica compilada por Kolotov y De Corte, disponible en www.iupac.org. La complejidad del tipo de activación/decaimiento de los radioisótopos de interés fue igualmente considerada, siendo una importante guía de estudio la dada por la base electrónica interactiva de Kolotov y De Corte (2004). Desarrollo Experimental Las mediciones de las actividades inducidas en el reactor RP10 del centro nuclear de Huarangal se realizaron con el programa Genie2K, versión 2.0 (Canberra). Se empleó un detector

de germanio hiperpuro de 78 cm3 Canberra, modelo GC1518, con 15% de eficiencia relativa y 1,8 keV de resolución (respecto al pico de 1332,5 keV de 60Co), y relación pico/Compton ~ 51, asociado a un sistema automático intercambiador de muestras de seis posiciones de conteo. La eficiencia de detección, ε, fue determinada mediante una relación semiempírica definiendo una distancia de medición rutinaria (A2) de 58,2 mm y una distancia de referencia (A1) de 210,7 mm, cuyo arreglo geométrico se detalla en la Figura 1. Dado que mediciones cercanas al detector implican correcciones por efectos de coincidencia y no se disponía de suficientes fuentes de calibración no coincidentes, se prepararon fuentes secundarias, cuya actividad se calculó empleando el valor de eficiencia determinado en la geometría de medición A1. Tales fuentes, acondicionadas en envases de polietileno, fueron luego medidas en la geometría A2. Los 13 pares coordenadas energíaeficiencias evaluadas se ajustaron mediante regresión polinòmica según la función:

P. Mendoza Hidalgo et al. - Influencia del comparador en las correcciones...

17

Selección de precursores y productos Se buscaron reacciones viables entre las reacciones de captura inducidas por las componentes térmica y epitérmica del reactor, cuyos precursores fueran materiales con características físicas adecuadas y sus productos emisores gamma. Se eligieron nucleídos sobre los que la reacción (n,γ) no conducía a la formación de isómeros. Se evitó el uso de nucleídos con energías efectivas de resonancia excesivamente altas y se seleccionaron los factores Q0(0) como para cubrir un amplio rango de valores. Preparación de Blancos Se preparó una solución múltiple de Co(II), Cr(III), Mn(II), Mo(VI) y Sc(III). Los eventuales efectos de contaminación cruzada son despreciables, dada la alta pureza de los reactivos empleados. Se transfirieron 350 mg de la solución múltiple a un envase de polietileno (PE) conteniendo como soporte 30 mg de celulosa de grado cromatográfico, secando el contenido mediante lámpara infrarroja. Se tapó el envase obteniendo un espesor no mayor 1 mm, con el fin de minimizar la autoabsorción de la radiación gamma. Se selló el envase térmicamente mediante plancha convencional recubierta con papel de aluminio. Las transferencias de material se realizaron en forma gravimétrica, empleando una balanza electrónica marca Shimadzu, modelo AW320. Los monitores en forma metálica se irradiaron, según su disponibilidad, como alambres o láminas, determinando para cada caso los factores de autodepresión neutrónica térmica (Gth) y epitérmica (Gepi) mediante programa de cálculo en Excel (Chilian y colaboradores, 2008]). En todos los casos se emplearon masas adecuadas de los analitos de interés y se calcularon los factores de corrección por autodepresión neutrónica, así como los valores de eficiencia y corrección por coincidencia empleados. Optimización de las condiciones de irradiación y medición Los envases conteniendo tanto la solución múltiple como los monitores metálicos se acondicionaron en cápsulas de irradiación. Se trans-

firieron a la posición A1 del núcleo del reactor RP10 por vía neumática y se irradiaron por espacio de (939 ± 1) s a una potencia nominal de 10 MW. Para definir las masas a irradiar se consideró una actividad que implicara una incertidumbre de área < 0,5% para el pico de energía plena evaluado. Luego, mediante la ecuación de activación (tasa de reacción según la convención de Stoughton Halperin modificada) y mediante un esquema de trabajo con los factores temporales preestablecidos, se calcularon los valores de masa de los elementos correspondientes. Los tiempos de decaimiento se ajustaron de forma tal para medir con un tiempo muerto Tm < 5% y con buena estadística de conteo, A ≥ 50000. p. La geometría de rutina de 58,2 mm empleada para el conteo de los radioisótopos de interés (exceptuando al 56Mn, que se midió a 210,7mm) implica la necesidad de incluir correcciones por coincidencia; a esos efectos se utilizó el “k0-IAEA programe” (Rossbach y colaboradores 2007).

Resultados y evaluación primaria Ventajas y limitaciones del método propuesto El método de cálculo implementado evalúa los datos de entrada en forma independiente, permitiendo visualizar en forma gráfica el comportamiento del monitor de interés a lo largo de su función φt = f (φe), lo que constituye una gran ventaja para investigar mínimas variaciones en el comportamiento del monitor. Asimismo, es posible evaluar la influencia de los parámetros de entrada mediante aproximación numérica, observando posteriormente en forma gráfica el comportamiento del monitor con los datos introducidos. Dentro de los parámetros nucleares de entrada, los referidos a sección eficaz de absorción (σ0) e intensidad de emisión gamma (γ) son los más críticos, dada su participación directa en el formulismo de cálculo del flujo neutrónico térmico, en tanto que el área del pico de interés evaluado, así como su eficiencia absoluta, son las variables experimentales más relevantes. Asimismo, el cálculo de la incertidumbre em-

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

18

pleando el código de Montecarlo nos brinda la información necesaria para las incertidumbres de los parámetros φt, φe, α y f basada en el tratamiento sobre datos reales y suponiendo una distribución rectangular (por el algoritmo de la variable pseudoaleatoria empleada), cuyos valores a 68% de confianza son más conservadores que los correspondientes a una distribución normal. La forma de cálculo del parámetro α reviste especial importancia y presenta una ventaja, pues basa su determinación en el comportamiento de los monitores involucrados y permite calcular una incertidumbre acorde al valor encontrado, a diferencia de la metodología empleada por De Corte (1987). El análisis gráfico implementado permite realizar ajuste visual interactivo en la búsqueda del mejor punto de intersección o de solución, el cual debe incluir los monitores claves como 198 Au, 97mNb, 99Mo y los denominados térmicos, sin olvidar al 177Lu. Este fue el principal mecanismo empleado en la selección de los monitores. El método desarrollado presenta un alto grado de robustez, observada en los diferentes gráficos de ajuste iterativo donde los valores para f, α y Tn se mantienen casi inalterables, incluso si existe una situación de inconsistencia para alguno de los monitores involucrados. Tal carac-

terística de robustez se debe a que el valor de f se determina sobre la base del flujo neutrónico térmico promedio de todos los monitores partícipes, en tanto que α y Tn se obtienen por ajuste iterativo según criterio visual. Evaluación de los monitores seleccionados Se evaluaron gráficamente las variaciones producidas por los valores empleados de las dos bases de datos consideradas para las secciones eficaces y las integrales de resonancia. Se analizó el comportamiento y la consistencia de los diversos monitores a partir del resultado final obtenido, presentado en forma gráfica en la Figura 2. Se observa una alta consistencia entre 46Sc, 56 Mn, 60Co, 97mNb, 95Zr, 198Au, 51Cr, 65Zn y 177Lu, en la zona de mayor cruce de rectas. El rango de la zona de cruce con relación al flujo neutrónico térmico promedio es aproximadamente 0,2%, considerando como límites los valores de φt para 46Sc y 65Zn calculados para un φe = 3,32 × 1011 n.cm-2.s-1. Esto implica que el rango de variación de la zona de intersección se encuentra dentro de la incertidumbre calculada. Considerando los valores obtenidos para los parámetros del flujo neutrónico se calculó la concordancia en términos de área para el pico de energía pleno característico y los valores de k0 respectivos, comparándose con los repor-

Fig. 2. Determinación simultánea de f, α y Tn. Zona de cruce seleccionada: 59 Co, 97mNb, 198Au, 95Zr, 65Zn y 177Lu: f = 58 ± 2, α = 0.038 ± 0,008 y Tn = 45 ± 2. Flujo neutrónico promedio para 10 MW de potencia: φt = (1,924 ± 0.005) 1013 n cm-2 s-1 y φe = (3,32 ± 0.14) 1011 n cm-2 s-1. Incertidumbre expresada como 1σ. P. Mendoza Hidalgo et al. - Influencia del comparador en las correcciones...

19

Y

Tabla 1. Evaluación de la concordancia y de los valores de k0 obtenidos con los reportados en literatura y los calculados a partir de los datos nucleares tados por la literatura (De Corte y Simonits, 2003) y los calculados teóricamente. Los resultados se presentan en la Tabla 1. Es importante notar que el concepto de concordancia (razón entre el área observada y la calculada) constituye una primera medida de la consistencia de los datos. Se obtuvo un alto grado de concordancia entre áreas medidas y calculadas, sobre la base de los datos nucleares seleccionados inicialmente. Se encontró gran similitud en la razón de valores k0 obtenidos experimentalmente frente a los calculados teóricamente. Con respecto a los valores k0 reportados en la literatura (De Corte y Simonits, 2003) se encontró una razón mayor que 1,03 para 51Cr, 46Sc, 177Lu y 99Mo, cuyas probables causas serán discutidas más adelante.

en la evaluación de la concordancia. Entre los monitores empleados, tanto el 45Sc como el 50Cr tienen el mejor comportamiento 1/v. Sin embargo, la diferencia entre valores σ0 de las bases de datos empleadas (Mughabghab, 2003) y (De Corte y Simonits, 2003), es mayor que el rango de incertidumbre estipulado. Por tal razón, se efectuó la evaluación gráfica de la función φt = f (φe) respectiva, con el fin de determinar la consistencia del dato investigado. Según indica la Figura 3, se observó inconsistencia del valor de σ0 publicado por De Corte y colaboradores (1989) para la reacción 50 Cr(n,γ)51Cr, al ser evaluado conjuntamente con los demás monitores. Tal valor fue determinado según el formulismo:

Monitores de bajo Q0 (< 10) Para la selección de los monitores de mejor comportamiento térmico se consideró, de acuerdo con Yusuf y Fleming (1994), aquellos cuyo valor de Q0 se aproxima a 0,45, que se correlacionan con una menor contribución epitérmica en la actividad inducida total medida. Tal contribución se determinó a partir de los datos empleados en el cálculo del parámetro de “área esperada”, utilizado posteriormente

empleando Au como comparador y realizando un estudio minucioso en la literatura de los “mejores” valores para los parámetros γ, θ y M. Al emplear los valores de σ0 e I0 dados por Mughabghab (2003), se obtuvo un óptimo ajuste al punto de intersección. Se encontró similitud entre el valor de k0 obtenido con el calculado teóricamente discrepando ~ 3,6 % con respec-

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

20

to al valor reportado en la literatura; esta discrepancia coincide con la diferencia encontrada por Molnar (2000). De modo similar se evaluó el comportamiento del 46Sc considerando σ0 = (26,3 ± 0.2) b, según De Corte y Simonits (2003) encontrándose una evidente inconsistencia, con una discrepancia del 3,7 % entre el valor de k0 obtenido, frente al reportado. Molnar (2000) sugirió como causas un valor de incertidumbre poco real o metodología no adecuada para determinación de σ0 (a partir de los factores de k0), que constituye, desde su perspectiva, la explicación más relevante de las inconsistencias observadas. Este autor ha criticado la determinación de secciones eficaces por medio de la ecuación empleada por De Corte y colaboradores (1989), debido a que implica un presupuesto de incertidumbre inaceptablemente alto.

para σ0 de 0,16% (Molnar, 2000). En tanto, para la medición de la integral de resonancia se usan 59 Co y 55Mn como estándares secundarios (Holden, 1993) con una incertidumbre relativa no mayor que 3%. El 59Fe tiene una composición isotópica sumamente baja, (0,282 ± 0,004)%, con un error relativo (1,4%) considerable para los estándares buscados. El comportamiento de la función φt = f(φe) del 59Fe indicó sistemáticamente valores menores de φt, contribuyendo negativamente en la precisión del método expresada como coeficiente de variación (CV). El 65Zn, con los valores de σ0 e I0 según De Corte y Simonits (2003) presenta la mejor concordancia y una óptima comparación del valor k0 obtenido frente al teórico y al reportado por literatura. En cambio, reemplazando los valores de σ0 e I0 por los dados según Mughabghab (2003), disminuye la concordancia a 0,692.

La evaluación de 59Co y 55Mn mostró un alto grado en la concordancia como de coincidencia entre los valores k0 experimentalmente obtenidos, frente a los reportados en literatura y los calculados teóricamente.

Al reemplazar los datos de σ0 y I0 por los sugeridos por Mughabghab (2003), la función φt = f (φe) de 95Zr se desvía del punto de intersección, tal como se observa en la figura 4, estimándose en 3% la discrepancia respecto al mismo.

El 59Co es usualmente empleado como estándar de flujo en el análisis por activación neutrónica paramétrico, con una incertidumbre relativa

La evaluación realizada por Trkov (2002) reveló consistencia bastante buena entre las bases de datos de Mughabghab (2003), De Corte y Simo-

Fig. 3. Inconsistencia del 51Cr respecto al grupo de monitores estudiados para σ0= 15,1 b e I0= 8 b, según De Corte y Simonits (2003). Se obtiene para el Cr un valor de φt = 2,00 × 1013 n cm-2 s-1, 4,2 % mayor al flujo neutrónico térmico promedio de 1,92 × 1013 n cm-2 s-1 P. Mendoza Hidalgo et al. - Influencia del comparador en las correcciones...

21

Fig. 4. Comportamiento del 95Zr asumiendo σ0 = 0,0499 b y I0 = 0,27 b según Mughabghab (2003). El punto de intersección está definido por 177Lu, 198Au, 60Co, 65 Zn y 97Zr (97mNb). La variación de los parámetros característicos de flujo se encuentran dentro de la incertidumbre calculada nits (2003) y la manejada por WPEC (Working Party on Evaluation Co-operation, IAEA) para los valores de σ0 de 94Zr y 96Zr, aunque encontró diferencias significativas para los valores de Q0, especialmente para el 94Zr (19,4% con relación al valor dado por De Corte y Simonits, 2003). Sin embargo, utilizar el 94Zr como monitor de la componente térmica, tal como lo sugieren Simonits y colaboradores (1976) no sería lo más apropiado si se considera la contribución epitérmica inducida, en comparación de los monitores térmicos convencionales. Debe recordarse además que el valor extremo de su energía efectiva de resonancia hace incierta la validez de la aproximación Ēr-α (De Corte, 2001). Monitores de Q0 intermedio (10 < Q0 < 30) El 197Au presenta una alta precisión relativa, tanto en sus parámetros críticos, σ0 e I0, como en sus restantes constantes nucleares. Es considerado como estándar de flujo en activación neutrónica (Molnar, 2000) siendo empleado también como estándar primario para las mediciones de la integral de resonancia (Holden, 1993) Su perfil metrológico lo hace viable como comparador analítico en el análisis por activación neutrónica paramétrico, aunque su dependencia del parámetro α y el efecto de quemado en

irradiaciones de alta fluencia neutrónica justifican la búsqueda de un comparador alternativo. La contribución epitérmica en su actividad inducida es de sólo 20,7%, lo que lo hace un monitor poco apropiado para evaluar la componente epitérmica para relaciones de flujo térmico a epitérmico relativamente altas. Monitores de alto Q0 (> 30) Tal como se observa en todas las figuras expuestas, el comportamiento de la función φt = f(φe) del 99Mo mostró una diferencia sistemática respecto al punto de intersección aceptado. Tal diferencia se encuentra en el rango de incertidumbre de las variables experimentales y los datos nucleares. La revisión bibliográfica hecha por El Abd (2010) muestra un rango de variación desde 0,12 b hasta 0,145 b para σ0, en tanto para I0 es aún mayor la dispersión: desde 4,72 b hasta 8,2 b. Este grado de dispersión de los valores de σ0 e I0 indica claramente la necesidad de mejorar la calidad de la determinación, especialmente la referente a σ0. A pesar de estos factores adversos, el 99Mo se presenta como un adecuado monitor de la componente epitérmica. Su valor de Q0 = 50,36 lo hace bastante atractivo para ser considerado como tal, dado que posee una mayor contribución epitérmica en su actividad inducida total

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

22

Fig. 5. Determinación simultánea de f, α y Tn sin participación de Zr como monitor. Parámetros determinados: f = 58 ± 2, α = 0,029 ± 0,008 y Tn = 49 ± 2. Flujo neutrónico promedio para 10 MW de potencia: φt = (1,924 ± 0.004) 1013 n cm-2 s-1 y φe = (3,31 ± 0.13) 1011 n cm-2 s-1 (41,7%) frente a la del 198Au (20,7%) ofreciendo por otro lado una respuesta más estable a la dada por 97Zr-97mNb, muy sensible a una eventual variación de α. En la Figura 5 se observa el comportamiento de los diferentes monitores sin considerar la participación del binomio 94Zr-96Zr. Se obtuvo una precisión expresada como CV igual a 0,606 con valores para f y α similares a los obtenidos inicialmente. La importancia del 96Zr como monitor de flujo epitérmico reside en el alto valor de Q0 para la reacción 96Zr(n,γ)97Zr. Según Lin y colaboradores (2009) al irradiar un monitor de Zr, incluso en una posición con f ≤ 50, más del 83% de la actividad inducida procede de neutrones epitérmicos. Este resultado concuerda con lo calculado (79%) para las condiciones observadas de f = 58 y α = 0,038. A pesar de los datos aparentemente favorables, la alta actividad relativa generada por la componente epitérmica torna al 96Zr muy susceptible a eventuales variaciones del parámetro α; a esto se suma el hecho de tener un valor para σ0 = 0,02 b, no adecuado para bajas tasas de fluencia neutrónica. No está de más recordar lo mencionado por De Corte (2001) acerca de la continua reevaluación del valor Q0 para la reac-

ción 96Zr(n,γ)97Zr, debido a la dificultad en la determinación segura de sus datos nucleares por el alto valor de Q0. Monitores de temperatura neutrónica Con el fin de completar la caracterización del flujo neutrónico es necesario determinar el parámetro de temperatura neutrónica, cuya evaluación se basa en la reacción 176Lu(n,γ)177Lu. En las mediciones efectuadas en este trabajo, se obtuvo inicialmente un valor de k0 mayor que 6% respecto al reportado en la literatura. Tal diferencia radica en el valor adoptado de la intensidad de emisión. Según LNHB (2011) se reporta para γ = 0,1038 ± 0,0007 calculado por Schötzig y colaboradores (2001), mientras el valor γ = 0,110 ± 0,004 dado por la referencia De Corte y Simonits (2003) procede de Kocher (1981) mencionada por De Corte y colaboradores (1987). Reemplazando los valores para σ0, I0 e γ según la referencia De Corte y Simonits (2003), se calculó una temperatura neutrónica, Tn = 28°C, un resultado distante a Tn = 45°C encontrado para cuando se empleó los valores según las referencias Mughabghab (2003) y LNHB (2011). Con el objeto de solucionar la disyuntiva crea-

P. Mendoza Hidalgo et al. - Influencia del comparador en las correcciones...

23

da por los diferentes resultados obtenidos de Tn, se evaluó la concordancia, considerando los valores para σ0, I0 e γ según estas dos referencias, siendo similar a la teóricamente calculada. Dado que el valor de σ0 es semejante en ambas referencias y la influencia por diferencia del parámetro I0 es mínima, cabe inferir entonces que el parámetro preponderante es la intensidad de emisión (γ). Por otro lado, el registro de parámetros termohidráulicos del reactor RP-10 en el día de la irradiación indicó una temperatura de salida del moderador de 38,5°C, estando el punto de lectura algo distante de la posición de irradiación. Si bien se espera que la temperatura neutrónica sea ligeramente mayor que la del moderador, lo que haría consistente al valor obtenido de Tn = 45°C, se decidió corroborar tal resultado aplicando el método de determinación absoluta de Tn propuesto por De Corte y colaboradores (1993). Tal método, basado en la coirradiación de lutecio y de un monitor “1/v” necesita conocer previamente el valor del índice espectral, que se determinó siguiendo el método de monitor bi-isotópico desnudo. Para tal fin se usaron los datos experimentales de 45Sc como monitor 1/v y de 94Zr y 96Zr como monitor bi-isotópico. Se obtuvo para el índice espectral modificado, descrito como r(α)(Tn/T0)1/2, un valor igual a 0,0167, con el que posteriormente se calculó el valor de gLu (Tn) = 1,894 que corresponde a un valor de Tn = 49,6°C según tablas de g(t) dada por Westcott. Por tanto, considerando la concordancia obtenida, los datos termohidráulicos observados y el valor calculado de temperatura neutrónica vía método absoluto, el valor dado por LNHB (2011) para la intensidad de emisión gamma del pico de 208,4 keV del 177Lu parece ser el más aceptable. Conformación de un grupo de monitores para el estudio integral del flujo y el espectro neutrónico Los conjuntos de monitores para la determinación de f, α, φt, φe y Tn se conformaron considerando el criterio básico de contar con un monitor “1/v” y un monitor cuya contribución epitérmica en su actividad inducida fuera mayo-

ritaria, incluyendo al 197Au para la determinación iterativa del parámetro α y al lutecio para la determinación de la temperatura neutrónica. De acuerdo con los resultados obtenidos, los conjuntos de monitores conformados por 198 Au-51Cr-99Mo-177Lu y 198Au-65Zn-97mNb-177Lu presentan ligeras diferencias con respecto a los valores promedio obtenidos para los parámetros bajo estudio. El valor del flujo neutrónico térmico dado por estos dos grupos es ligeramente mayor que el promedio general obtenido φt = (1,924 ± 0.005)1013 n.cm-2.s-1 pero con una marcada diferencia en cuanto al valor de flujo neutrónico epitérmico promedio φe = (3,32 ± 0,14)1011 n.cm-2.s-1. Los conjuntos de monitores: 198Au-95Zr-97mNb177 Lu,198Au-99Mo-60Co-177Lu y 198Au-60Co-97mNb177 Lu presentan resultados similares para los parámetros críticos evaluados, con una buena concordancia con respecto a los flujos neutrónicos promedio tanto térmico como epitérmico. El grupo 198Au-95Zr-97mNb-177Lu constituye el usualmente empleado en la determinación de los parámetros f y α para la caracterización del espectro neutrónico. Los valores obtenidos, tanto para f como para α, se encuentran dentro del promedio general observado. Al aumentar la incertidumbre total fijada de 2% a 5% se generó una fuerte variación de los parámetros f y especialmente α, concordante con la incertidumbre establecida. Para este último caso, los valores encontrados para los parámetros evaluados fueron f = 63 ± 7, α = 0,029 ± 0,025 y Tn = 36 °C. El grupo de monitores formado por 198Au-60Co99 Mo-177Lu presentó uno de los mejores ajustes observados. Los valores de los parámetros calculados son muy similares a los obtenidos por los demás grupos. En tanto, el ajuste CV para el grupo de monitores compuesto por 198Au51 Cr-99Mo-177Lu es bueno, pero la poca diferencia de pendiente entre 177Lu y 51Cr resta validez al punto de intersección obtenido. Discusión general Los parámetros característicos del flujo neutrónico fueron determinados en forma directa, exceptuando α, cuya determinación fue realizada

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

24

de modo iterativo. Esta perspectiva de cálculo no ortodoxa representa la posibilidad de obtener valores de α cercanos a cero sin llegar a sufrir indeterminación por el elevado error involucrado. Para el cálculo de la incertidumbre de los parámetros de f y α mediante el código numérico de Montecarlo, se fijó para la variable compuesta de la actividad inducida una incertidumbre total de 2%, considerando un intervalo de confianza del 95% (k = 2). Esta condición implica medir las áreas de los picos de energía plena de interés con una incertidumbre relativa máxima del 0,5%, con el fin de asegurar la exactitud del método. Una condición básica del análisis es que el flujo neutrónico térmico obtenido se mantenga constante, lo cual se cumple. Sin embargo, se observó una variación del 10% del flujo epitérmico y por consiguiente del parámetro f. La variación de α es de por sí importante, pero más lo es su incertidumbre. Aquí es importante recordar que, en principio, el punto de intersección fue establecido por el cruce de las funciones φt = f(φe) de 198Au, 95Zr, 97m Nb y 177Lu con las funciones equivalentes dadas por los monitores térmicos, fundamentalmente por el 60Co, reemplazándose posteriormente la función φt = f(φe) de 97mNb por la de 99Mo. La notable diferencia observada por variación de la incertidumbre asignada remarca cuán sensible puede ser la componente epitérmica a las fluctuaciones derivadas por estadística de conteo. La incertidumbre relativa de los picos de interés evaluados no sobrepasó el 0,40%. Tal grado de precisión fue alcanzado bajo condiciones operativas que implican largos tiempo de medición y, sobre todo, irradiación bajo una alta fluencia neutrónica de 1,8 × 1016 n.cm-2. En un escenario distinto, como la irradiación a baja potencia (0,32 MW) que es empleada con regularidad para el análisis paramétrico de muestras geológicas, la respuesta de los monitores de Zr y Fe no sería la más adecuada, pues se necesitaría extender el tiempo de medición o modificar la posición de medición a una geometría cercana al detector.

La ventaja analítica de preparar los monitores en solución, en comparación con aquellos empleados en forma de aleación reside no solo en una menor incertidumbre, sino también en manejar cantidades de masa según las condiciones operativas de irradiación y medición y no a la inversa, facilitando así el trabajo de rutina. Sin embargo, no puede dejar de reconocerse lo práctico del empleo de monitores metálicos de alta pureza o en aleación. Siguiendo esa perspectiva, resultaría también económico y dosimétricamente conveniente utilizar un monitor multipropósito para la determinación experimental de los parámetros característicos del flujo neutrónico de un reactor, imprescindible para la estandarización del método del k0. Una primera selección, sobre la base de la calidad de los datos y las constantes nucleares, conduce a 59Co y 56Mn como los monitores más adecuados para la evaluación de la componente térmica, en tanto el 64Zn puede ser considerado en segundo término, siendo necesaria una mejor determinación de su sección eficaz de captura. La situación cambia al elegir el monitor más adecuado para el estudio de la componente epitérmica, complicándose aún más si se suma la función de comparador, considerando la dependencia del parámetro α y el nivel de incertidumbre de las constantes y los datos nucleares de los monitores propuestos. A esto se suma un detalle importante, no considerado debidamente hasta ahora, que es el relacionado con la influencia de los fotoneutrones en la componente epitérmica del espectro neutrónico. Koster-Ammerlaan y colaboradores (2011) evaluaron la influencia de los reflectores de berilio en el reactor RID,de 5 MW de potencia. Encontraron que el modelo espectral 1/E 1+α es válido para neutrones epitérmicos hasta 10 keV en la posición de irradiación “in core”. Sin embargo, para energías de neutrones entre 10 keV a 100 keV se observó una notoria desviación del modelo espectral respecto al modelo diseñado, con tendencia a valores negativos en el factor α. La probable causa de esta desviación estaría en los fotoneutrones epitérmicos y los neutrones rápidos generados por el berilio a partir de reacciones (γ,n). Estos neutrones son luego moderados y absorbidos en la zona epitérmica,

P. Mendoza Hidalgo et al. - Influencia del comparador en las correcciones...

25

donde las características del monitor pueden tener influencia directa en la definición del modelo empleado para la descripción del espectro neutrónico. La influencia de estos fotoneutrones en la evaluación del espectro epitérmico depende del monitor o monitores empleados para detectar dicho espectro. Por ejemplo, tanto el 99Mo como el 198Au tienen energías de resonancia hasta 10 keV. En cambio, los picos de resonancia del 94Zr están principalmente por encima de los 10 keV, por lo que variaciones en la producción de fotoneutrones por el berilio afectaría la activación del 95Zr. Sin embargo, el efecto mencionado en el párrafo anterior tendría un mayor impacto en 96Zr, dado que si bien tiene picos de resonancia en el rango de 10 keV a 100 keV, de menor magnitud en comparación con el 94Zr, el 78,9 % de su actividad inducida procede de la componente epitérmica, por lo que un cambio en la generación de fotoneutrones y neutrones rápidos por el berilio causaría la distorsión del espectro neutrónico y por lo tanto variación en la determinación del valor del parámetro f. Una consecuencia importante derivada de este efecto es que la determinación del parámetro α, como descriptor del comportamiento no ideal del espectro epitérmico varía al emplear 96Zr como monitor. Obviamente, el grado de distorsión de la distribución de la energía neutrónica en la zona epitérmica dependerá de la configuración del núcleo y del monto de berilio utilizado, así como del material estructural empleado. Koster-Ammerlaan y colaboradores (2011) encontraron que la diferencia en el valor de α calculado por el conjunto de monitores Au-Zr con respecto al obtenido mediante Au-Mo-Cr puede llegar a traducirse en una diferencia de concentración en molibdeno hasta un 5%. Algunos antecedentes de la situación comentada en los párrafos precedentes pueden encontrarse en el trabajo publicado por Kennedy y Pierre (2003) en donde se observaron variaciones hasta del 10%, en términos de concentración, para elementos cuya activación es mayormente epitérmica, como arsénico, yodo y cadmio. La caracterización del espectro neutrónico se realizó utilizando el método de triple monitor desnudo (198Au-94Zr-96Zr). Los valores de f y α se compararon con los obtenidos mediante el método multielemental de la razón de cadmio,

usando 198Au, 60Co y 101Mo, y los resultados indicaron una diferencia sistemática del 10 % entre ambos métodos. Se calculó adicionalmente la masa de cada elemento determinado por el método k0, observando que para el 95Zr se hallaba 4,6 % más alta que lo esperado. Considerando lo mencionado por Koster-Ammerlaan y colaboradores (2011), tanto el 198Au, 60 Co y 99Mo no tienen problemas, dado que sus picos de resonancia se encuentran en energías menores que 10 keV. En cambio, la captura adicional de fotoneutrones por los picos de resonancia del 96Zr y especialmente del 94Zr conlleva el incremento de la actividad inducida por la componente epitérmica con lo cual el valor de f disminuye (debido al aumento del φe calculado). Este resultado es consistente con lo observado por Kennedy y Pierre (2003). La pregunta obvia ante tales evidencias es si estos resultados constituyen cuestiones específicas por el tipo de reactor o si es necesario un cambio en la concepción metodológica del modelo. Smodis y colaboradores (2003) propusieron una nueva alternativa de cálculo de los parámetros característicos de flujo neutrónico basada en la redefinición de las constantes nucleares del k0 con una descripción más realista de la forma espectral de la componente epitérmica. Sugieren que el parámetro α no es constante y que afecta a aquellos monitores particularmente sensibles a neutrones de alta energía, como en el caso de 94Zr. Sobre esta base, calcularon un valor de 14685 eV para la energía efectiva de resonancia, a diferencia de la frecuentemente empleada (Ēr = 6260 eV). En razón de las evidencias mostradas, cabe esperar discrepancias en los resultados de experiencias tales como la determinación del valor de Q0 para las reacciones 94Zr(n,γ)95Zr y 96 Zr(n,γ)97Zr, (Smodis y colaboradores, 2003) y (Lin y colaboradores, 2009) realizadas en facilidades de irradiación con diferentes características espectrales. Este comportamiento implica que el zirconio es un muy buen detector de anomalías en el rango de 10 a 100 keV del espectro epitérmico, pero en general tales anomalías no serán percibidas por los demás nucleídos. Así, la información sobre el espectro epitérmico que entregan los

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

26

isótopos del zirconio estará muy influida por pequeñas variaciones que pueden ocurrir en el rango de 10 a 100 keV, que al no ser importantes para los demás nucleídos llevan a la conclusión de que el zirconio no es un buen monitor del flujo epitérmico. Este no es el caso del 98Mo, cuyo comportamiento frente a la influencia de los fotoneutrones difiere de la del binomio 94Zr-96Zr, y que permite obtener resultados más consistentes de los parámetros característicos de flujo en las diversas facilidades de irradiación estudiadas (KosterAmmerlaan y colaboradores, 2011). Las constantes nucleares y el esquema de desintegración del 98Mo son favorables para una óptima activación, al igual que para la medición. Sin embargo, y tal como se mencionó anteriormente, la falta de consenso en torno a sus valores de I0 y σ0 limita su uso en reemplazo del oro como comparador analítico en el método k0-INAA. El 197Au es considerado por ahora el comparador analítico por excelencia. Las consideraciones expuestas en los capítulos previos fundamentan tal afirmación; a ellas se suma el hecho de tener sus picos de resonancia en una región exenta de la influencia de los fotoneutrones y neutrones rápidos generados por el berilio. Entre las diversas razones mencionadas, la referida a sus parámetros críticos σ0 e I0 cobra vital importancia. Su adecuada dimensión y su baja incertidumbre relativa (< 0,1 %) sumadas a la aceptación de sus valores por consenso internacional son requisitos ampliamente alcanzados. Un segundo grupo de requisitos relacionados a condiciones espectrales, contempla los siguientes criterios: complejidad del esquema de desintegración, necesidad de corrección por coincidencia y adecuado periodo de semidesintegración, así como espectro de emisión gamma con picos de energía plena de alta intensidad relativa. El 197Au cumple con los criterios mencionados, al tener un esquema de desintegración simple, con pico de energía plena de alta intensidad y sin corrección por coincidencia, en un rango intermedio de energía (411,8 keV) en el que no hay mayores interferencias espectral. Su periodo es adecuado, desde el punto de vista de los requerimientos experimentales, facilitando el control

del tiempo muerto de conteo y la posibilidad de reutilizar el monitor, disminuyendo por ende la gestión de residuos radiactivos respectiva. Un tercer grupo de requisitos a considerar se relaciona con criterios de accesibilidad y óptimas condiciones de preparación y manipulación. Un criterio adicional a considerar es la posibilidad de contaminación cruzada en el comparador vía cutánea o ambiental. Dicha posibilidad es mínima en el caso del oro. Sin embargo, el problema con este elemento radica en que su comportamiento en la región epitérmica presenta un apreciable grado de dependencia del parámetro α. Si se emplean valores incorrectos de α, por ejemplo los obtenidos empleando zirconio como monitor epitérmico, el oro fallará como comparador. De acuerdo con las experiencias realizadas, el 176 Lu es el único monitor factible para la determinación de la temperatura neutrónica. Ya se hizo mención a las favorables características del cobalto como monitor en la zona térmica. Alternativamente, el 55Mn también podría emplearse como monitor de flujo térmico, siempre que se considere un decaimiento no mayor a diez periodos. Se puede entonces establecer que un monitor multipropósito (o un conjunto de monitores) compuesto por Au, Co, Mo y Lu sería el más adecuado para los fines establecidos, mientras que Mn y Zn podrían ser considerados como monitores secundarios. Un detalle importante a considerar es el comportamiento del 99Mo como comparador. A diferencia de los monitores “epitérmicos” tradicionales, 197 Au y 96Zr, su empleo como tal (considerando α = 0) genera un error sistemático no mayor que 1% en los nucleídos bajo estudio. La trascendencia de este hecho radica en que podría reemplazar al oro como comparador, y en términos más favorables, pero se requeriría una mejor determinación de los valores de sus parámetros críticos. Los resultados obtenidos en el presente trabajo, sumados a las evidencias aportadas por otros autores, muestran que es necesario continuar en esa línea de experimentación, dada la importancia que implica conocer una probable modificación de la expresión 1/E1+α, si se piensa

P. Mendoza Hidalgo et al. - Influencia del comparador en las correcciones...

27

en minimizar el impacto del comportamiento no ideal del flujo epitérmico en el cálculo de concentraciones mediante el método paramétrico del k0. La conclusión primaria que se desprende del presente es que la elección del comparador óptimo (o, en forma más amplia, de un conjunto posible de comparadores) es un problema notablemente más complejo que lo que aparenta ser, pues además de las características físicas, químicas y nucleares que debe reunir, requiere la realización de una consistente caracterización de la facilidad de irradiación, que necesariamente debe efectuarse de modo experimental. A su vez, y tal como surge de las experiencias aquí realizadas, esta caracterización tiene que basarse en un modelo teórico adecuado del espectro neutrónico. El problema se complica aún más, porque establecer el modelo teórico y realizar la caracterización experimental no son etapas cancelatorias, sino que implican un tratamiento iterativo y de manera recursiva, lo que demanda mayor tiempo de investigación y subsecuentemente mayor esfuerzo experimental. En primer lugar, se aportan pruebas concluyentes en lo referente al monitor bi-isotópico 94Zr – 96Zr, cuya utilización ha sido defendida desde hace varias décadas por muchos autores: los resultados obtenidos muestran que debe quedar descartado como comparador. Adicionalmente, se ha demostrado que su empleo como monitor de flujo neutrónico es cuestionable, no solo por la gran dependencia del 96Zr a las variaciones del parámetro α, que tornan al menos dudosos los resultados de flujo en la zona epitérmica, sino también por la relativamente alta participación de la componente epitérmica en la actividad inducida por el 94Zr, que restringe su utilidad como monitor térmico, sobre todo considerando que 59 Co y 64Zn son más adecuados para tal fin.

se en relación con el eventual uso de 64Zn y 50Cr, en especial con respecto a este último. Ambos podrían ser muy eficientes comparadores si sus secciones eficaces para la reacción (n.γ) fueran objeto de determinaciones más seguras. La solución que se propone en el presente trabajo para el problema de la elección de monitores y comparadores, que como se ha visto está lejos de ser trivial, es el desarrollo de un método de cálculo riguroso en su concepción, con el fin de asegurar la obtención de resultados confiables. Más allá de esta pauta primordial, puede mencionarse que el método desarrollado es de simple realización y que brinda una determinación completa de todos los parámetros, incluyendo la determinación de los flujos en forma separada, como parte de un proceso único. El párrafo anterior brinda el marco de referencia para destacar uno de los logros más relevantes de este desarrollo: el problema de la determinación del parámetro que relaciona la densidad del flujo neutrónicos de las componentes térmica y epitérmica (f) y del parámetro vinculado a la forma espectral de la densidad neutrónica epitérmica (α) ha sido solucionado aplicando un enfoque integral y distinto a los empleados tradicionalmente. Tal carácter novedoso se extiende a la evaluación de su incertidumbre, que se realiza desde otra perspectiva de cálculo, no sólo más adecuada desde el punto de vista metodológico, sino también más eficiente, pues elimina la indeterminación para valores de α cercanos a cero, inconveniente frecuente en los métodos convencionalmente aplicados.

Sobre la premisa de la elección de monitores y comparadores seleccionados con base en la calidad de determinación de los valores de sus propiedades nucleares, así como de la viabilidad experimental del uso de los mismos, los monitores recomendados para su uso como comparadores, según los resultados del presente estudio, son 59Co, 197Au y 98Mo. No obstante, para la adopción definitiva del 98Mo sería necesaria una mejor determinación de su sección eficaz de captura. Análoga consideración puede formularPROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

28

Referencias ARRIBÉRE, M.A.; COHEN I.M. ; KESTELMAN, A.J.; RIBEIRO GUEVARA, S.; ARRONDO, M. y FORNACIARI ILJADICA, M.C., (2005), Proyecciones, 5, 9. CHILIAN, C.; ST-PIERRE, J.y KENNEDY, G., (2008), J. Radioanal. Nucl. Chem., 278, 745. DE CORTE, F., (2001) J. Radioanal. Nucl. Chem., 248, 13. DE CORTE, F.; MOENS, L.; SIMONITS, A.; DE WISPELAERE, A. y HOSTE, J., (1979), J. Radioanal. Nucl. Chem., 52, 295. DE CORTE, F.; MOENS L.; SORDO-EL HAMMAMI, K.; SIMONITS, A. y HOSTE, J., (1979), J. Radioanal. Chem., 52, 305. DE CORTE, F.; SORDO-EL HAMMAMI, K.; MOENS, L.; SIMONITS, A.; DE WISPELAERE, A. y HOSTE, J., (1981) J. Radioanal. Nucl. Chem., 62, 209. DE CORTE, F.; SIMONITS, A.; DE WISPELAERE, A. y HOSTE, J., (1987), J. Radioanal. Nucl. Chem., 113, 145. DE CORTE, F. y SIMONITS, A., (2003), Atomic Data and Nuclear Data Tables, 85, 47 DE CORTE, F., (1987) J. Trace Microprobe Techniques, 5, 115. EL ABD, A., (2010), J. Radioanal. Nucl. Chem., 274, 321. ERDTMANN, G. y PETRI, H., (1986), Treatise on Analytical Chemistry, Second Edition-Part I, 14 , N. York., USA. GIRARDI, F. ; GUZZI, G. y PAULY, J., (1965), Anal. Chem., 37, 1085. HOLDEN, E.N., (1993) 37° Asamblea General de IUPAC, Lisboa-Portugal IAEA, (2007) Update of X-ray and gamma ray decay data standards for detector calibration and other applications, Vol. 1 y Vol. 2. ISO GUM, (2004), Guide to the expression of uncertainty in measurement. Supplement 1: Numerical methods for the propagation of distributions. KENNEDY, G. y ST-PIERRE, J. (2003), J. Radioanal. Nucl. Chem., 257, 475. KESTELMAN, A.J. y ARRIBÉRE, M.A., (1995); “Automatización del método de determinación de flujos térmico y epitérmico en análisis por activación neutrónica”, Proc. Workshop on Applications of k0 and other parametric methods of INAA. IAEA –ARCAL. Lima, Perú. KOCHER, D.C. (1981), Radioactive decay data tables Report DOE/TIC-11026 KOSTER-AMMERLAAN, M.J.J.; BODE, P. y WINKELMAN, A.J.M., (2011), J. Radioanal.Nucl. Chem., DOI: 10.1007/s10967-011-1241-5. KOSTER-AMMERLAAN, M.J.J.; BACCHI, M.A.; BODE, P. y DE NADAI FERNANDES, E.A., (2008), Appl. Radiat. Isot., 66,1964. KOLOTOV, V.P. y DE CORTE, F., (2004) Pure Appl. Chem, 76,1921. LABORATOIRE NATIONALE HENRI BECQUEREL, (2011), Recommended Data, www.nucleide. org/DDEP_WG/DDEPdata.htm LIN, X. ; GERSTENBERG, H. ; LIERSE VON GOSTOMSKI, A.; HENKELMANN, R. ; TÜRLER, A. y ROSSBACH, M., (2009), Appl. Radiat. Isot, 67, 2092. MONTOYA, E.H. ; COHEN, I.M. ; MENDOZA, P. y BEDREGAL, P., (2010), Nuclear Instruments and Methods A, 622, 381. MOLNAR, G. L., (2000), J. Radioanal. Nucl. Chem, 244, 27. MUGHABGHAB, S.F., (2003),Thermal neutron capture cross sections, resonance integrals and g-factors, International Nuclear Data Committee (NDS)-440 Distr. PG+R; IAEA. OP DE BEECK, J., (1985), J. Radioanal. Nucl. Chem., Articles, 90/1, 167. ROSMAN, K.J.R. y TAYLOR, P.D.P., (1998), Pure Appl. Chem., 70, 217. ROSSBACH, M. ; BLAAUW, M. ; BACCHI, M.A. y LIN, X., (2007), J. Radioanal. Nucl. Chem., 274, 657. RYVES, T. B. y PAUL, E. B., (1968), J. Nucl. Energy, 22, 759. SCHÖTZIG, U.; SCHRADER, H.; SCHÖNFELD, E.; GÜNTHER, E. y KLEIN, R., (2001), App. Radiat. Isot, 55, 89. SIMONITS, A.; DE CORTE, F.; VAN LIERDE, S.; POMMÉ, S.; ROBOUCH, P. y EGUSKIZA, M., (2000) J. Radioanal. Nucl. Chem., 245,199. SIMONITS, A.; DE CORTE, F. y HOSTE, J., (1975), J. Radioanal. Nucl. Chem., 24, 31. P. Mendoza Hidalgo et al. - Influencia del comparador en las correcciones...

29

SIMONITS, A.; DE CORTE, F. y HOSTE, J., (1976) J. Radioanal. Nucl. Chem, 31, 467 SMODIŠ, B.; TRKOV, A.; JACIMOVIC R. (2003), J. Radioanal. Nucl. Chem., 257, 481. STOUGHTON, R.W. y HALPERIN, J., (1959), Nucl. Sci. & Eng. 6, 100. STEELE, A. y DOUGLAS, R.J., (2005), Simplifications from simulations, Institute for National Measurement Standards, National Research Council, Canada. TRKOV, A., (2002), Validation of thermal cross sections and resonance integrals of SG-23 evaluated nuclear data library, IAEA, Vienna. WIESER, M.E., (2006), Pure Appl. Chem., 78, 2051. YUSUF, O.S. y FLEMING, R.F. (1994), J. Radioanal. Nucl. Chem., 79, 105.

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

30

Proyecciones, Vol.11 No. 1, Abril de 2013

Estudio comparativo de la congelación de papa (Solanum tuberosum L.) sometida a diferentes pretratamientos. Patricia A. Della Rocca 1, Luis Alberto Roche2, Rodolfo H. Mascheroni2 Universidad Tecnológica Nacional, Facultad Regional Buenos Aires, Departamento de Ingeniería Química, Medrano 951, (C1179AAQ), Ciudad Autónoma de Buenos Aires, Argentina 2 CIDCA, Centro de Investigación y Desarrollo en Criotecnología, (CONICET La Plata y Universidad de La Plata), Calle 47 y 116, La Plata (B1900AJJ), Pcia. de Buenos Aires, Argentina 1

Recibido el 18 de Febrero de 2013, aprobado el 13 de Marzo de 2013

Resumen Se estudió la historia térmica del proceso de congelación de papas frescas y pretratadas por los siguientes tratamientos: deshidratación osmótica, por escaldado y posterior microondas y deshidratación osmótica seguida de microondas. Las papas pretratadas disminuyen su contenido de agua durante los diferentes procesos y por consiguiente, el posterior proceso de congelación requiere tiempos de congelación menores y de esta manera se pueden lograr ahorros energéticos importantes. Los tiempos de congelación se estimaron muy satisfactoriamente aplicando la ecuación de Salvadori-Mascheroni y se compararon con los experimentales. Los errores son inferiores al 8%. Las papas pretratadas por deshidratación osmótica y microondas exhibieron un tiempo de congelación 9 minutos inferior al de las papas frescas. PALABRAS CLAVE: CONGELACIÓN - OSMODEHIDROCONGELACIÓN - PAPA

Abstract The thermal history of freezing fresh and pre-treated potatoes was studied by the following treatments: osmotic dehydration, scald and later microwave and osmotic dehydration followed by microwave. Pre-treated potatoes reduce its water content during the different processes and therefore the subsequent process of freezing requires lower freezing times and in this way, significant energy savings can be achieved. The freezing times were estimated very satisfactorily by applying the equation of Salvadori - Mascheroni and were compared with the experimental ones. The errors are lower than 8%. Pre-treated potatoes by osmodehydration and then microwave exhibit a freezing time 9 minutes lower than the fresh potatoes one. KEYWORDS: FREEZING - OSMODEHYDROFREEZING - POTATO

31

Introducción El objetivo del presente trabajo fue evaluar el comportamiento de la papa sometida a diferentes tratamientos antes de la congelación (deshidratación osmótica, escaldado y secado por microondas en tiempos cortos, secado combinado de papa por deshidratación osmótica y posterior secado con microondas). En todos los casos, se analizaron y compararon los diferentes tiempos de congelación necesarios para alcanzar una temperatura de -18°C en el centro térmico del producto. Estos pretratamientos pretenden generalmente mejorar su aspecto en cuanto a sus características organolépticas y calidad luego del proceso de congelación y ahorrar en costos energéticos de refrigeración y transporte al disminuir su contenido de agua. Como se menciona precedentemente, los pretratamientos consisten en algunos casos en la deshidratación osmótica que permite preservar las características de aroma, sabor del alimento, y que evitan dañar su textura, si se lo compara con otros tratamientos más agresivos como los secados por convección en aire caliente a altas temperaturas. Cuando se combina una etapa inicial de deshidratación osmótica con una posterior congelación, al proceso total se lo denomina, osmodehidrocongelación. Las ventajas principales que ofrece este procesamiento respecto de la congelación tradicional son: 1. Obtención de un producto de mejor calidad. 2. Elaboración de productos con características especiales al poder adicionar durante la deshidratación osmótica diversos componentes que puedan otorgar aromas, sabores o fortificar el producto. 3. Ahorro en los costos finales (energéticos, de transporte, de almacenamiento, de empaque, etc.). Una deshidratación parcial previa como la deshidratación osmótica logra disminuir la cantidad de agua que se solidificará en el proceso de congelación. Esto conduce a un menor daño de la estructura y a la obtención de una mejor calidad final. Asimismo, existe un importante ahorro de energía por menor carga térmica y una mayor facilidad en el manejo de los productos debido a un menor volumen de producto, ahorro en el uso de embalajes, disminución

del espacio requerido en almacenes y vehículos de transporte. (Garrote et al., 1989; Forni et al., 1990; Torregiani, 1993; Robbers et al., 1997; Spiazzi et al. 1998, Marani et al., 2007). La energía consumida en una deshidratación osmótica a 40°C, considerando la reconcentración de la solución (jarabe) por evaporación, es por lo menos dos veces inferior a la consumida en el proceso de secado por convección de aire caliente a 70°C para alcanzar la misma humedad final del producto (Lenart y Lewicki, 1988). Por consiguiente, un ahorro energético significativo se puede alcanzar realizando una deshidratación osmótica como pre-tratamiento antes de la congelación, dependiendo de la humedad final alcanzada (Huxsoll, 1982). El escaldado es un tratamiento térmico que tiene por finalidad destruir las enzimas susceptibles de alterar las verduras y las frutas. Estas modificaciones pueden presentarse como cambios en el aroma, en el color (degradación de la clorofila, pardeamiento en manzanas, etc.). Este pretratamiento se puede llevar a cabo en agua caliente o con vapor. Por lo general, en el primer caso se consume una tonelada de agua por tonelada de producto escaldado y en el segundo caso 0,2 a 0,3 toneladas de vapor por tonelada de producto, aproximadamente. También se debe considerar que el gasto energético del escaldado no es despreciable y que se producen pérdidas de algunas sustancias hidrosolubles como proteínas, azúcares, minerales y vitaminas, disminuyendo de esta manera el valor nutritivo del producto. Asimismo, las aguas de escaldado generan una importante cantidad de efluentes en la fábrica. Si bien la actividad enzimática está muy reducida si congelamos luego el producto a -18°C, sin embargo es necesario un almacenamiento a -40°C para lograr el cese total de la actividad enzimática. Por ello para ahorrar en energía de congelación se continúa escaldando el producto y congelando el producto a -18°C. En cuanto a las pérdidas de vitaminas hidrosolubles se comprobó que las pérdidas que se producen por el lavado de las mismas pueden limitarse ya que con este tratamiento se inhiben las enzimas responsables de la destrucción de algunas de ellas. Según Poulsen (1986), en las habas conservadas durante 12 meses a -20°C se perdía un 90% de la vitamina C, un 70% de

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

32

la vitamina B1 y un 40% de la vitamina B2 en el caso que se congelaran sin escaldarlas previamente. Sin embargo, las pérdidas eran del 50%, 20% y 3%, respectivamente cuando las habas eran escaldadas antes de la congelación ya que se inhibían las enzimas que colaboraban en su destrucción. La utilización posterior del secado por microondas al pretratamiento de deshidratación osmótica intentó obtener un producto con menor contenido de agua para luego congelar. No se trató solamente con microondas porque la finalidad fue obtener un producto con mínimas alteraciones en su calidad final. Se procuró de evitar las modificaciones en la forma y la textura y estructura no uniforme, los cambios de sabor y aroma, la modificación del color y

la degradación de componentes nutricionales, entre otros. El objetivo del uso de métodos combinados de secado se centra en la mejora de la calidad caracterizada por una mínima degradación química y de cambios de estructura y de textura, mínima variación de sabor y aroma y obtención del color deseado junto con un control preciso del contenido de humedad. La utilización de bajas temperaturas es uno de los métodos más antiguos de conservación de alimentos. Al solidificarse el agua contenida en el alimento por descenso de la temperatura deja de estar disponible para las reacciones químicas y bioquímicas que deterioran los alimentos. El efecto combinado de la baja temperatura y la disminución de actividad de agua

Tabla 1. Contenido de humedad y temperatura inicial de congelación de diferentes productos alimenticios P. A. Della Roca et al - Estudio comparativo de la congelación de papa...

33

ocasionan la inhibición parcial o total del crecimiento y actividad de microorganismos, la actividad metabólica de los tejidos animales o vegetales luego del sacrificio o la recolección y las reacciones enzimáticas y químicas de deterioro. Durante el proceso de congelación se produce un descenso de la temperatura del alimento por debajo de su temperatura de congelación. La misma es inferior a la temperatura de congelación del agua de 0°C ya que los solutos que integran el alimento descienden la temperatura de congelación de la solución. Esta se halla entre -2°C y -5°C, aproximadamente, dependiendo del tipo de alimento considerado. En la Tabla 1 se presentan algunos alimentos y sus temperaturas de congelación características. La congelación implica la eliminación del calor sensible del alimento para bajar la temperatura a la temperatura inicial de congelación y del calor latente asociado al cambio de fase del agua líquida a hielo. La determinación del calor a extraer, carga calórica, es importante ya que de ello dependerá la potencia que deberá tener la instalación. Debido a la inmovilización del agua por efecto de la formación de cristales de hielo, el agua no se encuentra disponible para las reacciones de deterioro mencionadas anteriormente. En alimentos vegetales congelados es muy importante que alcancen la maduración antes de ser sometidos al proceso de congelación ya que deben ser consumidos luego de la descongelación. La calidad de un alimento congelado no sólo depende del proceso de congelación sino también de la calidad del producto a congelar. La disminución de la temperatura por debajo de la temperatura de congelación provoca

la aparición de núcleos para solidificarse. El número y la distribución de cristales formados dependen de la velocidad de congelación. Existen dos tipos de nucleación: la homogénea, cuando se orientan al azar las moléculas de agua para formar el cristal y la heterogénea cuando los núcleos se forman sobre partículas en suspensión o sobre la pared celular del alimento. Esta última es la más común en los alimentos y es la que se produce durante el subenfriamiento, punto S en la curva de la Figura 1. La velocidad de nucleación es fuertemente dependiente del subenfriamiento, que es la fuerza impulsora. A mayor subenfriamiento mayor será la velocidad de nucleación por unidad de volumen del sistema. A muy altos valores de subenfriamiento, la velocidad de nucleación decrece debido a un aumento de la viscosidad del fluido y a una consecuente inhibición de la movilidad molecular. En un alimento, la interacción del agua con los solutos presentes produce la depresión del punto inicial de congelación. Además, la cristalización del hielo ocasiona una progresiva concentración de la solución que permanece no congelada. Por consiguiente, a medida que más hielo se forma, aumenta la concentración en sólidos de la solución no congelada y su viscosidad y se reduce, por lo tanto, su punto de congelación. La meseta de cambio de estado que se presenta en la típica curva de solidificación del agua se ve perturbada y aparece en su lugar una zona con el descenso progresivo del punto de congelación, en realidad se observa una pseudo meseta. En las curvas de congelación, en las que generalmente se estudia la evolución de la temperatura del centro térmico, punto que

Fig. 1. Evolución de la temperatura en el centro térmico con el tiempo durante el proceso de congelación PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

34

se congela más tarde, en función del tiempo, se distinguen las siguientes partes: Primer tramo AS: el alimento se enfría por debajo de su punto de congelación, siempre inferior a 0ºC, temperatura de congelación del agua. En el punto S el agua se halla a una temperatura inferior al punto de congelación y ésta todavía se encuentra en estado líquido. A este fenómeno se lo conoce con el nombre de subenfriamiento. El tiempo correspondiente a este tramo se denomina tiempo de pre-enfriamiento. Segundo tramo SB: la temperatura aumenta rápidamente hasta alcanzar el punto de inicial de congelación, ya que al formarse los primeros cristales de hielo se libera el calor latente de congelación a una velocidad superior a la que se extrae el calor del alimento. El subenfriamiento se produce más extensivamente cerca de la superficie del sistema que se congela y a veces no se detecta si el enfriamiento es lento y el sensor de temperatura se ubica profundamente en el sistema. Tercer tramo BE: en éste el calor latente se elimina y se forma el hielo. El incremento de la

concentración de solutos en la fracción de agua no congelada provoca un descenso en el punto de congelación y la temperatura desciende ligeramente. En esta etapa se forma la mayor cantidad de hielo. El tiempo total tf, correspondiente a la pseudo-meseta de congelación depende de la velocidad a la que se extrae el calor. A velocidades más altas de congelación esta pseudo meseta se reduce como puede observarse en la Figura 2. Cuarto tramo EF: la temperatura del alimento continúa descendiendo hasta alcanzar la temperatura del congelador. El tiempo involucrado en esta etapa es el denominado tiempo de atemperado. La velocidad de congelación determina la distribución de los cristales en los tejidos. Cuando la congelación es lenta, los primeros cristales que se forman son grandes y aparecen principalmente en el exterior de las células. Estos pueden provocar compresión mecánica aplastando las células. En la congelación rápida aparecen muchos pequeños cristales tanto en el interior como en el exterior de las células y el tejido es menos dañado. Es por ello que los tejidos con-

Fig. 2. Curvas típicas de congelación a distintas velocidades P. A. Della Roca et al - Estudio comparativo de la congelación de papa...

35

gelados rápidamente liberan menos exudados que los congelados lentamente cuyos tejidos se desorganizan y degradan. El volumen de hielo es un 9% superior al del agua líquida, por lo tanto, es esperable que durante la congelación del alimento se produzca una dilatación. El proceso de ultracongelación o supercongelación se aplica a aquellos productos que se congelan con un descenso de temperatura de 5°C por minuto aproximadamente en el centro del alimento, punto crítico, y se prolonga hasta alcanzar una temperatura en el mismo de -18°C. Posteriormente son almacenados a temperaturas inferiores a -18°C. La congelación es un proceso complejo que consta de las siguientes etapas: 1. Enfriamiento y subenfriamiento de la muestra 2. Nucleación, formación de los núcleos de cristales 3. Crecimiento de los núcleos de cristal formados 4. Enfriamiento posterior del material congelado hasta la temperatura final. Las instalaciones de congelación se pueden clasifican en: • Sistemas de refrigeración mecánicos en los que el refrigerante es evaporado y comprimido en un circuito cerrado. Los congeladores mecánicos por lo general utilizan como medio de congelación el aire enfriado o superficies frías. • Sistemas criogénicos. Los congeladores criogénicos emplean anhídrido carbónico o nitrógeno líquido que entran en contacto directo con el alimento. En ambos tipos de instalaciones, el funcionamiento puede ser continuo o discontinuo. Equipo de congelación por contacto con aire: el aire fluye a través del alimento absorbiendo energía del mismo, y de esta manera el producto se enfría. Según cómo sea la velocidad del aire y su temperatura, el equipo puede refrigerar o congelar el producto. En los sistemas de refrigeración mecánicos los componentes típicos son el evaporador, el com-

presor, el condensador, la válvula de expansión y el refrigerante. En el evaporador, el refrigerante se evapora a presión reducida, absorbiendo energía del aire que extrae calor de los productos a congelar. La temperatura se regula mediante un termostato. El vapor que deja el evaporador se sobrecalienta y luego pasa al compresor donde se aumenta su presión y temperatura. La compresión debe llevarse a cabo en la región seca ya que el líquido en forma de gotas puede erosionar las válvulas del compresor y puede disminuir la efectividad de lubricación del mismo. Posteriormente, el refrigerante es conducido al condensador donde la presión se mantiene constante mientras dura la condensación y deja el mismo como líquido subenfriado. El refrigerante líquido atraviesa la válvula de expansión que trabaja isoentálpicamente y reduce la presión a la correspondiente a la presión del evaporador para iniciar el ciclo nuevamente. El medio de enfriamiento en los sistemas de refrigeración mecánicos puede estar constituido por aire, agua o una superficie metálica. Las cámaras de refrigeración por aire cuando el mismo tiene circulación forzada presentan coeficientes de transmisión de calor bastante elevados, tal el caso de los túneles de congelación. Las propiedades más importantes de los refrigerantes deben ser las siguientes: 1. Bajo punto de ebullición y elevado calor latente de vaporización para poder extraer la mayor cantidad de energía 2. Baja toxicidad 3. Alta densidad de vapor para disminuir el tamaño del compresor 4. Baja inflamabilidad 5. Bajo costo 6. Baja miscibilidad con el aceite en el compresor Estimación del tiempo de congelación El conocimiento del tiempo de congelación es muy importante para el diseño del proceso de congelación ya que puede convertirse en el tiempo de residencia del producto en el equipo y además se relaciona con la velocidad de refrigeración. Los factores que determinan la velocidad de refrigeración son: • • • •

Temperatura del medio refrigerante Coeficiente efectivo de transferencia de calor Forma y tamaño del producto Propiedades físicas del sistema

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

36

• Otros (temperaturas inicial y final, humedad relativa) Generalmente, se emplean dos métodos para la predicción de tiempos de congelación: los numéricos y los aproximados. Los métodos numéricos se basan en la siguiente ecuación diferencial en estado no estacionario para un sistema multidimensional y su solución: (1) donde ρ es la densidad, cp el calor específico, k la conductividad térmica, t el tiempo y T la temperatura. Se requiere información detallada de la variación de las propiedades térmicas: calor específico, densidad y conductividad térmica, en función de la temperatura y la posición. La solución de la precedente ecuación permite evaluar los perfiles de temperatura en el sistema durante la congelación, a través del conocimiento de la historia térmica en cada punto del sistema y su dependencia con las condiciones operativas del proceso representadas por la temperatura inicial, temperatura del medio refrigerante, tamaño característico del alimento, coeficiente de transferencia calórico que involucra características del medio refrigerante, tipo de equipo de congelación, presencia de embalaje, etc. Todo ello lleva a establecer, el tiempo de congelación del alimento (Zaritzky, 2002). En la resolución numérica de la ecuación diferencial se emplean elementos finitos, diferencias finitas o volúmenes de control. Las diferencias finitas es un método satisfactorio en geometrías regulares mientras que los elementos finitos son más eficientes cuando se trata de geometrías irregulares. Las soluciones aproximadas basadas en suposiciones simplificatorias fueron aplicadas por varios investigadores: Plank, Pham, Neumann, Cleland y Earle y Salvadori- Mascheroni. El tiempo de congelación es aproximadamente proporcional a la inversa de la diferencia entre la temperatura inicial (Ti) y la del refrigerante (Ta) (o sea a 1/(Ti -Ta)). Siempre que se baje la temperatura del refrigerante disminuirá proporcionalmente el tiempo

de proceso de congelación. En congelación industrial de alimentos hay dos clasificaciones en cuanto a la temperatura de refrigerante (Mascheroni, 2000): • En refrigeración mecánica la temperatura alcanzable en condiciones económicamente favorables es del orden de -40°C. • En refrigeración criogénica la temperatura está determinada por la de evaporación del refrigerante empleado (aproximadamente -79°C para el CO2 y -179°C para el N2). Al haber variación continua de las propiedades térmicas en el rango de temperaturas de congelación no existe una solución analítica exacta del problema en la cual basarse para obtener el método aproximado. Generalmente se parte de soluciones exactas para problemas simplificados (propiedades constantes) o se hacen regresiones de datos teóricos y/o experimentales en un amplio rango de condiciones. Salvadori y Mascheroni (1991) han desarrollado un método aproximado simple y muy preciso para el cálculo de los tiempos de congelación y descongelación de alimentos de formas regulares. El método cuenta con la ventaja de no requerir valores de propiedades térmicas del producto congelado ni del cálculo de la entalpía efectiva del cambio de fase. Para estimar el tiempo de congelación la fórmula de cálculo propuesta para una geometría de placa plana infinita es:

(2) donde α es la difusividad térmica del producto sin congelar L es el semiespesor de la placa en m, Ti es la temperatura inicial, Ta es la temperatura del refrigerante y Tc la temperatura final a alcanzar en el centro térmico (generalmente -10°C o -18°C) expresadas todas en °C. Las constantes, empíricas, dependen de la geometría. Para placa plana infinita a = -1.272; b = 65.489; c = 0.184; n = 0.096 y m = 1.070. Las condiciones de aplicación son: 2°C < Ti < 25°C, -45°C < Ta < -25°C y 1 < Bi < 50. El

P. A. Della Roca et al - Estudio comparativo de la congelación de papa...

37

número de Biot, Bi, es un número adimensional que relaciona la resistencia interna del producto con la resistencia externa a la transferencia de energía y cuya expresión es:

Bi = h L/k (3) donde h es el coeficiente de transferencia de calor expresado en W/(m2 °C) y k es la conductividad térmica del producto expresada en W/ (m °C). La difusividad térmica está dada por la relación:

α = k/ ρ cp

(4)

siendo ρ y cp, la densidad en kg/m3 y el calor específico del alimento en J/(kg °C), respectivamente. Para tener en cuenta la influencia de la forma de los alimentos multidimensionales en ambos tiempos de proceso se han utilizado distintos tipos de factores de forma. Cleland y Earle (1982) han desarrollado varias versiones de los mismos. La más ampliamente utilizada, debida a Cleland et al. (1987) es la siguiente: (5) donde tc,pl es el tiempo de congelación de una placa plana y E es el factor de forma o número equivalente de dimensiones de transferencia de calor, que relaciona el tiempo de congelación de una placa al tiempo de congelación de un objeto cualquiera de igual dimensión característica, ambos expuestos a las mismas condiciones. Para una placa infinita E=1, para un cilindro infinito E=2 y para una esfera E=3, independientemente del valor del número de Biot. Para el caso de un cubo se calcula el valor que resulta E =3.

metría (Salvadori et al., 1996, Salvadori et al., 1997). El cálculo del tiempo de descongelación se realiza de manera similar, tomando como base el tiempo de descongelación correspondiente a placa plana infinita y utilizando los mismos factores de forma (Salvadori y Mascheroni, 1996).

(7) En la ecuación anterior td,pl es el tiempo de descongelación de una placa plana, y las constantes empíricas correspondientes valen: a = 0,321; b = 23,637; c = 0,435; n = 0,099 y m = 0,763. El tiempo de descongelación de un cuerpo multidimensional se calcula efectuando el cociente entre el tiempo correspondiente a placa plana y el factor de forma calculado igual que en el caso de congelación. El tiempo total calculado con la ecuación de Salvadori y Mascheroni tiene en cuenta los tiempos empleados en cada etapa: (8) donde tp es el tiempo de preenfriamiento correspondiente al tramo AB de la Figura 1, tf es el tiempo de congelación donde se produce la mayor formación de hielo que corresponde al tramo BE de la figura citada y ta es el tiempo de atemperado que sería el que transcurre entre el final de la etapa anterior y el tiempo final total del proceso que en la industria se considera generalmente cuando se alcanza una temperatura de -18°C en el centro del alimento y en las actividades de investigación -30°C, tramo EF de la mencionada figura.

Parte experimental

Para objetos de otras formas E se calcula según:

Materiales

(6)

La papa (nombre científico: Solanum tuberosum) es una especie perteneciente a la familia de las Solanáceas, originaria de América del Sur y cultivada en todo el mundo por sus tubérculos comestibles. Existen miles de variedades con grandes diferencias de tamaño, forma, color, textura, cualidades y sabor. La variedad

donde E1 y E2 dependen de las relaciones de tamaño β1: L2 / L1 y β2 : L3 / L1 (L1, L2 y L3 son los lados o diámetros del contenedor (L1 < L2 < L3)) y del número de Biot. y los factores G1, G2 y G3 son constantes que dependen de la geo-

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

38

Tabla 2. Composición química de la papa, variedad Spunta que se usó en este trabajo es la Spunta, con propiedades muy buenas para hervir o asar y de gran consumo en nuestro país. Se caracteriza por tener los tubérculos de forma oval y alargados, piel suave, carne amarilla, tamaño grande a muy grande, rendimiento muy alto y madurez semi temprana. En la Tabla 2 se presenta la composición química de la papa, variedad Spunta (Basuny et al., 2009) Las papas se cortaron en cubos de 1 cm de arista. Métodos En el proceso de congelación se utilizó un túnel de congelación a escala piloto con bandejas en su interior, el cual permite alcanzar condiciones operativas similares a las de la industria. Se registró la temperatura en función del tiempo de las papas sometidas a los distintos tratamientos colocándose en el centro térmico (centro de los cubos) una termocupla. El coeficiente de transferencia calórico del equipo de congelación es de 20 W/(m2 °C). En todos los casos, la congelación se llevó a cabo desde una temperatura ambiente de 20 °C hasta una temperatura de congelación en el centro térmico de -18°C y una temperatura del aire de -35°C. Las papas recibieron distintos pretratamientos antes de su congelación: Pretratamiento 1 (Papa fresca), sin tratamiento previo. Pretratamiento 2 (DO) se realizó la osmodeshidratación de las papas en las condiciones operativas a continuación informadas.

Condiciones operativas de la osmodeshidratación: Concentración de sacarosa: 40 % m/m Concentración de sal: 5 % m/m Temperatura: 40°C Relación masa de solución a masa de papa: 4 Tamaño de cubos (arista: 1 cm) Nivel de agitación: 120-110 rpm Tiempo: 1 h Pretratamiento 3 (Escaldado + MO), las papas fueron escaldadas a 85°C durante 5 min en agua caliente y luego secadas en microondas a una potencia de microondas del 60 % de la potencia máxima del equipo durante 5 minutos. Pretratamiento 4 (DO+ MO), se realizó el pretratamiento osmótico de las papas como en la experiencia 2 y luego el secado con microondas a una potencia de microondas del 60% de la potencia máxima del equipo durante 5 minutos. La estimación de los tiempos de congelación se realizó aplicando la ecuación de SalvadoriMascheroni. Los errores en la estimación de los tiempos de congelación se calcularon mediante la siguiente ecuación:

(9) Se utilizaron las correlaciones de Choi y Okos para estimar las propiedades de la papa fresca y deshidratada que correlacionan las mismas con la composición del producto y su temperatura.

P. A. Della Roca et al - Estudio comparativo de la congelación de papa...

39

El calor específico en J/kg K como una función de la temperatura en °C para los distintos componentes de un alimento se expresan mediante las siguientes ecuaciones: (10)

(11)

(12) (13)

(14)

(15)

Luego, el calor específico del alimento se calcula teniendo en cuenta los aportes de cada uno de sus componentes que lo integran, haciendo uso de la fracción másica, X (16)

La densidad en kg/m3 para cada componente se calcula con las siguientes escuaciones: (17) (18) (19) (20) (21) PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

40

(22)

(23)

La conductividad térmica del alimento en W/(m K) se estima como la suma de los productos de las conductividades térmicas de cada componente y su respectiva fracción volumétrica xvi. Las ecuaciones se detallan a continuación: (24)

(25)

(26) (27)

(28)

(29)

(30) (31)

Subíndices alim= alimento p= proteínas g=grasas c=carbohidratos f=fibras ce=cenizas a=agua i= cada componente vi= volumétrica P. A. Della Roca et al - Estudio comparativo de la congelación de papa...

41

La fracción de agua no congelada a una temperatura de -18°C se estimó mediante la ecuación de Bartlett (1944) (32) L: calor latente de fusión del agua: 6003 J/mol R: constante de los gases perfectos: 8,314 J/ (mol K) To: temperatura de la fusión del agua (273 K) X: fracción molar del agua no congelada Siendo E el contenido de agua no congelada del producto y S el contenido en extracto seco soluble de un peso molecular equivalente, M. La ecuación para calcular E es: (33) El contenido de hielo del producto, G se calcula: (34) W: humedad en base húmeda También se empleó la ecuación de Tchigeov (1979), relación empírica que permite estimar la fracción másica de hielo, según la ecuación:

(35) Tic: temperatura inicial de congelación (°C) T: temperatura a la que se desea calcula la fracción másica de hielo (°C) Fikin (1996) comprobó que esta ecuación es aplicable a una gran variedad de alimentos y provee una exactitud bastante satisfactoria

(36) kw: constante criogénica del agua : 18,6 en CGS C: masa de soluto en g disuelta en 100 g de agua M: peso molecular del soluto

Resultados y análisis Tiempos de congelación En la Figura 3 se presentan las curvas de temperatura en función del tiempo durante la congelación para las papas sometidas a los distintos tratamientos descriptos en las experiencias detalladas en Materiales. A partir de las mismas se puede apreciar que la papa fresca de mayor contenido de humedad 84 % que las tratadas tarda más tiempo en alcanzar la temperatura de -18°C en el centro térmico. Los tiempos experimentales para los distintos tratamientos se presentan en la Tabla 2. El menor de los tiempos se registró para el tratamiento por deshidratación osmótica y secado posterior por microonda (DO+MO), ya que la humedad final es de 48 %. La papa con tratamiento de deshidratación osmótica cuya humedad es de 61 % (intermedia a las otras humedades mencionadas precedentemente) presenta un tiempo intermedio entre la papa fresca y la tratada con DO+MO, correspondiente con su humedad. La ecuación de Salvadori-Mascheroni predijo los tiempos de congelación de manera muy precisa. Los valores de tiempo calculados tienen un error del 4 % y del 14 % para las muestras frescas y las tratadas por deshidratación osmótica, respectivamente, respecto de los valores de tiempo experimentales.

La temperatura de inicio de congelación se determinó considerando que la papa, como todo tejido vegetal, se puede considerar como una solución de extracto seco soluble en agua. Teniendo en cuenta que al principio de la congelación, un tejido biológico se puede comportar como una solución diluida al que se le puede aplicar la Ley de Raoult, la siguiente ecuación puede utilizarse para calcular aproximadamente la temperatura inicial de congelación, Tic. PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

42

Fig. 3. Curvas de congelación (temperatura en función del tiempo) para las papas frescas y tratadas con los tratamientos DO, Escaldado + MO y DO + MO

Tabla 3. Tiempos experimentales y calculados para las papas frescas y las sometidas a los distintos tratamientos No se calcularon los tiempos para los dos últimos tratamientos porque no se tenían los valores de las propiedades de la papa luego de los mismos. Los errores fueron de 0,2 % y 8 %, en los casos de papa fresca y deshidratada osmóticamente, respectivamente.

Las propiedades de la papa fresca y deshidratada osmóticamente calculadas con la ecuación de Choi y Okos se presentan en la Tabla 4. Las mismas fueron utilizadas para predecir los tiempos de congelación.

Tabla 4. Propiedades de la papa fresca y deshidratada osmóticamente calculadas con la ecuación de Choi y Okos P. A. Della Roca et al - Estudio comparativo de la congelación de papa...

43

Tabla 5. Hielo formado y agua no congelada a -18 °C Porcentaje de agua sin congelar a -18°C

Conclusiones

Se estimó con la ecuación de Bartlett el porcentaje de agua sin congelar a la temperatura de -18°C. A la temperatura inicial de congelación Tic no se ha formado hielo en cantidad apreciable,. Entonces, se calcula la fracción molar de agua no congelada cuyo valor es de 0,9877. Luego se calcula la masa molecular equivalente del extracto seco que resultó de 275,32 kg/ kmol. Finalmente, se calcula la fracción de agua no congelada a -18°C. Los valores calculados con las ecuaciones de Bartlett y Tchigeov se presentan en la Tabla 5

La papa tratada térmicamente antes de su congelación, reduce su contenido en agua y por ello, disminuye su tiempo de congelación y entonces se reduce la carga de congelación, requiriéndose equipos de menor potencia y logrando por consiguiente un ahorro energético.

Temperatura inicial de congelación La temperatura inicial de congelación calculada para la papa fresca, sin tratamiento, es de -1,286°C y la obtenida experimentalmente a partir de la curva de congelación de -1,27°C. Se calculó un error relativo de 1,2 % en valor absoluto.

Los tiempos de congelación se pueden calcular muy precisamente por la ecuación de SalvadoriMascheroni que cabe resaltar presenta la ventaja de no necesitar valores de las propiedades térmicas del alimento congelado ni del cálculo de la entalpía efectiva del cambio de fase.

Agradecimientos Los autores agradecen a la Facultad Regional Buenos Aires, Universidad Tecnológica Nacional y al Centro de Investigación y Desarrollo en Criotecnología de Alimentos (CIDCA) Universidad Nacional de La Plata.

Referencias BASUNY, A.; MOSTAFA, D. y SHAKER, A., (2009) Relationship between chemical composition and sensory evaluation of potato chips made from six potato varieties with emphasis on the quality of fried sunflower oil, World Journal of Dairy and Food Sciences, 4 (2) 193-200. CLELAND, A.C. y EARLE, R.L.,(1982) Freezing time prediction for foods: a simplified procedure, Int. J. Refrig. 5, 134-140. CLELAND, A.C.,(1986) A review of methods for predicting the duration of freezing processes, in Food Engineering and Process Applications Volume 2 ed. M Le Maguer and P. Yelen. Elsevier Applied Science Publisher, London, 41-54. CLELAND, D.J.; CLELAND, A.C. y EARLE, R.L., (1987) Prediction of freezing and thawing times for multidimensional shapes by simple methods. Part I: Regular shapes.Int. J. Refrig. 10, 156. CHOI, Y. y OKOS, M.R., (1986) Effects of temperature and composition on the thermal properties of foods, In Food Engineering and Process Application1: 93-101, Elsevier Applied Science, London. FIKIN, K.A., (1996) Ice content prediction methods during food freezing: A survey of the Eastern European Literature. In New developments in refrigeration for Food Safety and Quality, International Institute of Refrigeration, Paris, France and American Society of Agricutural Engineers, St Joseph, Michigan, 90-97. Food Processing Handbook, Volumen 1, 2° edición, Wiley-VCH, Brennan, J.G. y Grandison, A. S., editors, 2012. PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

44

FORNI, E.; TORREGGIANI, D.; CRIVELLI, G.;MAESTRELLI, A.; BERTOLO, G. y SANTELLI, F., (1990) Influence of osmosis time on the quality of dehydrofrozen kiwi fruit, in International Symposium of kiwifruit, Padova, Acta Horticulturae 282, 425-433. FRICKE, B. A. y BECKER, B. R., (2001) Evaluation of thermophysical property models for foods, HVAC&R Research, Vol.7, N°4, 311-330. GARROTE, R. L. y BERTONE, R. A., (1989) Osmotic concentration at low temperature of frozen strawberry halves. Effect of glycerol, glucose and sucrose solutions on exudate loss during thawing, Lebensmittel-Wissenschaft und Technologie 22, 264–267. HUXSOLL, C., (1982) Reducing the refrigeration load by partial concentration of foods prior to freezing. Food Technology, 35 (11), 98-102. LENART A. y LEWICKI P., (1988) Energy consumption during osmotic and convective drying of plant tissue. Acta Alimentaria Polonica, 14, 65. MAFART, P., (1991) Ingeniería Industrial Alimentaria, Vol.1 Procesos Físicos de conservación, Editorial Acribia S.A., Zaragoza, España. MARANI, C.M.; AGNELLI, M.E. y MASCHERONI, R.H., (2007) Osmo-frozen fruits: mass transfer and quality evaluation. Journal of Food Engineering, 79, 1122-1130. ONITA, N.; IVAN, E., (2005) Estimation of the specific heat and termal conductivity of foods only by their clases of substances content (wáter, proteins, fats, carbohydrates, fibers and ash), Scientifical Researches, Agoalimentary Processes and Technologies, Volume XI, N°1, 217-222. ROBBERS, M.; SINGH, R.P. y CUNHA, L.M., (1997) Osmotic-convective dehydrofreezing process for drying kiwifruit, Journal of Food Science, 62(5), 1039-1047. ROCHE, L. A.; SALVADORI, V.O. y MASCHERONI, R. H., Influencia del tamaño de los cortes, la congelación, almacenamiento congelado y descongelación en la producción de exudados en patas de cerdo deshuesadas.S/Fecha SALVADORI, V. O; DE MICHELIS A. y MASCHERONI, R. H., (1997) Prediction of freezing times for regular multi-dimensional foods using simple formulae, Lebensm. Wiss.u.Technol, 30, 30-35. SALVADORI, V. O; MASCHERONI, R. H. y DE MICHELIS A., (1996) Freezing of strawberry pulp in large containers: experimental determination and prediction of freezing times, Int. J. Refrig., Vol. 19 N°12, 87-94. SPIAZZI, E.; RAGGIO, Z.; BIGNONE K. y MASCHERONI, R., (1998) Experiments in dehydrofreezing of fruits and vegetables: mass transfer and quality factors, in IIR proceedings Series “Refrigeration Science and Technology”, Sofia, Bulgaria. TOLEDO, R., (2007) Fundamentals of food process engineering, 3| Edition, Springer science and Business Media, New York, USA. TORREGGIANI, D., (1993) Osmotic dehydration in fruit and vegetable processing. Food Research International 26: 59-68. ZARITZKY, N., (2002) Preservación III, Congelación de Alimentos, Temas en Tecnología de Alimentos, Volumen 1, Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo (CYTED), Alfaomega Grupo Editor.

P. A. Della Roca et al - Estudio comparativo de la congelación de papa...

45

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

46

Proyecciones, Vol.11 No. 1, Abril de 2013

Modelado para la predicción de enfermedades en cultivos de alto valor comercial Enrique Bombelli2, Ricardo Moschini3, Eduardo Wright2, María Virginia López2, María del Carmen Fabrizio2 Universidad de Buenos Aires, Facultad de Agronomía, Av. San Martín 4453 (C1417DSE), Ciudad Autónoma Buenos Aires, Argentina {bombelli, wright, mvlopez, fabrizio, barberis, mrivera}@agro.uba.ar 3 Instituto de Clima y Agua. INTA Castelar. Los Reseros y Las Cabañas s/n. B1712WAA. Castelar. Prov. de Buenos Aires, Argentina 2

[email protected] Recibido el 11 de Diciembre de 2012, aprobado el 22 de Enero de 2013

Resumen Para predecir el comportamiento de enfermedades de plantas, mediante la construcción de modelos matemáticos, se evaluó la severidad de manchas foliares ocasionada por el hongo Altenaria tenuissima, en plantaciones de arándano alto (cultivar O’Neal) en tres localidades: San Pedro (S 33º 43’ - W 059º 41’), Concordia (S 31º 24’ - W 058º 02’) y Gualeguaychú (S 33º 01’ - W 058º 31’), durante los ciclos epidémicos primavero-estivo-otoñales de 2008/09 y 2009/10. Los mejores modelos simples de regresión logística de respuesta binaria integraron a Snc (grado de senescencia foliar) y a DTxnP (días con temperaturas entre 16 y 36°C), con precisiones de predicción de 93,8% y 78,5% respectivamente. El mejor modelo de respuesta ordinal integró a la interacción FPr*DTxnP (días con precipitación > 0,2 mm*días con temperaturas entre 16 y 36°C) y a Snc, con una precisión de predicción de 86,2%. PALABRAS CLAVE: EPIDEMIOLOGÍA - MODELOS PREDICTIVOS - MANEJO DE ENFERMEDADES - ARÁNDANO ALTO - Alternaria tenuissima.

Abstract The construction of mathematical models to predict the behavior of plant diseases requires the use of methods for collecting data related to the disease, the host and the environment. The severity of leaf spot, caused primarily by the fungus Altenaria tenuissima, highbush blueberry plantations (cultivar “O’Neal”) was evaluated in three locations: San Pedro (S 33º 43’- W 059º 41’), Concordia (S 31º 24’- W 058º 02’) and Gualeguaychú (S 33º 01’- W 058º 31’), epidemic cycles during spring-summer-autumn 2008/09 and 2009/10. The best simple logistic regression models for binary response integrated into Snc (degree of leaf senescence) and DTxnP (days with temperatures between 16 and 36°C), with prediction accuracies of 93.8% and 78.5% respectively. The best model for ordinal response interaction joined FPr*DTxnP (days with precipitation > 0.2 mm KEYWORDS: EPIDEMIOLOGY - PREDICTION MODELS - DISEASE MANAGEMENT HIGHBUSH BLUEBERRY - Alternaria tenuissima. El presente artículo forma parte de la tesis presentada para la maestría Ingeniería en Sistemas de la Información Facultad Regional Buenos Aires, bajo la dirección de la Dra. Zulma Cataldi. ** Se desea destacar la colaboración en este proyecto de Guillermo Barberis y Marta Rivera. 1

47

Introducción Las enfermedades que afectan a los cultivos, causan pérdidas significativas, lo cual resulta importante desde el punto de vista de la alimentación a escala mundial (De Wolf e Isard, 2007). Las enfermedades explican por lo menos el 10% de pérdidas de la cosecha global y son, en parte, responsables del sufrimiento de ochocientos millones de personas que carecen de una alimentación adecuada (Strange y Scott, 2005). Estadísticas como éstas, son las que motivan a muchos fitopatólogos a buscar nuevas formas de disminuir el impacto de las enfermedades en la cosecha (De Wolf e Isard, 2007). De hecho, la fitopatología se dedica al desarrollo y uso de prácticas que reducen el efecto nocivo de una enfermedad sobre lo que será nuestra comida (Maloy, 1993). Estas prácticas deben ser económicamente posibles de llevar a cabo y aceptables desde lo ambiental (Campbell y Madden, 1990). La comprensión de los factores que desencadenan el desarrollo de epidemias vegetales, son esenciales si deseamos crear y ejecutar estrategias eficaces para la gestión de la enfermedad. La interacción sincrónica entre el hospedante, el patógeno, y el ambiente, gobierna el desarrollo de la enfermedad (Figura 1).

eventos “cadena de la infección”, sin embargo, más recientemente han entrado en boga los términos “ciclo de la enfermedad” o “ciclo de la infección” (Maloy, 1993; Kranz, 2003). La descripción y la cuantificación del ciclo de la enfermedad es la base fundamental de la epidemiología vegetal y constituye la llave para desarrollar una gestión eficaz de la misma (De Wolf e Isard, 2007). La cuantificación de la distribución espacial de la enfermedad proporciona importante información sobre potenciales fuentes de inóculo, así como también la extensión de la misma en una región agrícola (De Wolf e Isard, 2007). El poder predecir cuándo una enfermedad aumentará a un umbral que cause pérdidas económicamente significativas, constituye uno de los usos más importantes de la epidemiología vegetal (Campbell y Madden, 1990). La predicción de la enfermedad en días o semanas antes de que una epidemia ocurra, permite que los productores respondan de manera oportuna y eficiente ajustando las prácticas de gestión de cultivos (Maloy, 1993). Dado un plazo de ejecución suficientemente largo, las predicciones de la enfermedad podrían ayudar a los productores a decidir qué cultivares utilizar y cuándo sembrarlos. Podría ayudarles también a programar la fertilización, la irrigación, la rotación de cultivos, y otras prácticas culturales (De Wolf e Isard, 2007). Por otra parte, una predicción de bajo riesgo de ocurrencia de la enfermedad, puede dar lugar a un uso reducido de pesticidas, con positivas consecuencias económicas y ambientales (De Wolf e Isard, 2007). Contexto

Fig. 1. Triángulo epidémico (De Wolf e Isard, 2007) Estas interacciones se pueden conceptualizar como una secuencia continua o ciclo de acontecimientos biológicos que incluyen inactividad, reproducción, dispersión, y patogénesis (De Wolf e Isard, 2007). Aunque los fitopatólogos saben y reconocen desde hace tiempo la importancia de estos acontecimientos, Gaumann (1950) fue el primero en evaluar críticamente la progresión de acontecimientos que llevan al desencadenamiento de la enfermedad (Campbell y Madden, 1990; Maloy, 1993). Gaumann (1950) denominó a esta secuencia continua de

De las muchas enfermedades que amenazan al cultivo de arándano en Argentina, Alternaria tenuissima es el patógeno de mayor incidencia y prevalencia (Wright et al., 2005; Wright et al., 2007; Wright y Pérez, 2007), responsable de pérdidas de hasta un 20% en poscosecha (Wright et al., 2003-b; Wright et al., 2004; Wright et al., 2010). Se trata de un hongo común y abundante en el aire, así como en el suelo, en las semillas y en productos agrícolas. Incluye especies tanto fitopatógenas como saprófitas, conocidas por producir metabolitos, sobre todo fitotoxinas,

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

48

que desempeñan un papel importante en la patogénesis de las plantas. Las que producen metabolitos tóxicos en las plantas infectadas y/o en los productos agrícolas, pueden contaminar los alimentos y provocar efectos adversos en animales. La sintomatología en arándano es muy variable, aunque la más común consiste en manchas foliares, ocasionando también pudrición de frutos en pre y poscosecha.

algunos o todos los factores que expresan la enfermedad (patógeno, hospedante, ambiente). Dichos modelos se desarrollan analizando información observada de las enfermedades y de la meteorológica del pasado reciente. Se trata de explicar la variación de la enfermedad a través de variables meteorológicas que captan la variabilidad del clima regional, en un intervalo temporal de corta duración.

Tratándose de un patógeno necrotrófico2, su control preventivo consiste en eliminar órganos afectados, disminuir la humedad foliar y evitar condiciones de estrés, manteniendo el cultivo bien fertilizado y regado. Cuando aparecen los primeros síntomas en hojas y/o tallos, se recomienda aplicar fungicidas (Rivera et al., 2009). Para el caso que nos ocupa, los fungicidas foliares constituyen la principal herramienta a utilizar para minimizar los daños causados. Pero si se busca una estrategia de control químico basada en la ocurrencia de condiciones meteorológicas favorables al progreso epidémico, es necesario contar con modelos matemáticos que cuantifiquen la relación ambiente/enfermedad.

Esta metodología responde a los sistemas de pronóstico empíricos o deductivos, muchos de los cuales son de gran utilidad y funcionales (datos actuales e históricos de registros de enfermedad y condiciones ambientales de un sitio dado). Esto resulta en la formulación de reglas que deben cumplirse antes que se produzca el desarrollo de la enfermedad, como las establecidas para el tizón tardío de la papa (Phytophthora infestans) (Hyre, 1954). Coakley (1988) sugiere un mínimo de 8 a 12 años de observaciones de enfermedad para identificar con certeza los factores climáticos asociados. Si esto no fuera posible, se podría utilizar información meteorológica y de la enfermedad de varios sitios pertenecientes a una región geográfica, de manera de obtener variabilidad. En este sentido, Del Ponte et al. (2006) mediante técnicas de regresión lineal múltiple, ajustaron modelos basados en variables hídricas para predecir la severidad final de la roya asiática de la soja (Phakopsora pachyrhizi). Para ello, utilizaron datos de severidad (%) de sólo 3 campañas, pero de 34 experimentos de campo, en 21 sitios de Brasil. Moschini et al. (2006) utilizaron observaciones de incidencia de escudete negro (Alternaria alternata y Bipolaris sorokiniana) en trigo fideo, de 5 sitios y 3 campañas, para ajustar modelos predictivos de regresión lineal múltiple y logística basados en 2 variables meteorológicas.

En Argentina no se dispone hasta el presente de observaciones de severidad final de la enfermedad que permitan encarar el desarrollo de modelos empíricos con base meteorológica, para predecir niveles de ocurrencia de la enfermedad. Metodología y objetivos La ocurrencia, desarrollo y dispersión de enfermedades de cultivos, depende de los efectos integrados del patógeno, hospedante y condiciones ambientales. El productor puede implementar una serie de prácticas de manejo que modifican este sistema interactivo, con el objeto de reducir las pérdidas atribuidas a enfermedades y de esta forma incrementar los rendimientos de los cultivos, bajo el marco de sustentabilidad exigible a los sistemas productivos. Para apoyar al manejo táctico y estratégico de enfermedades de cultivos, muchos esfuerzos de investigación se concentran en el desarrollo de modelos que simulan el progreso epidémico y/o el nivel final de enfermedad, basados en 2

Para el desarrollo de los mencionados modelos, se dispuso de observaciones de severidad de Alternaria tenuissima en arándano, las cuales trataron de representar su progreso epidémico durante los ciclos de crecimiento 2008/09 y 2009/10, en tres sitios geográficos (Concordia, Gualeguaychú y San Pedro). Si se hubiesen usado los valores máximos de severidad de cada ciclo de crecimiento, sólo se hubiese dispuesto de seis observaciones (3 sitios x 2 ciclos). Dicho número de observaciones es considerado insuficiente para establecer, a través

Parásito que mata a las células y obtiene su energía de las células muertas (Dárcy et al., 2001). E. Bombelli et al - Modelado para la predicción de enfermedades...

49

de técnicas de regresión, la relación cuantitativa ambiente/enfermedad. Por ello se pensó entonces, en otra técnica de análisis que incluyera todas las observaciones disponibles de severidad de Alternaria tenuissima (n=29) a lo largo de los ciclos de crecimiento de arándano. En este marco, debido al excesivo e irregular espaciamiento temporal entre observaciones de la enfermedad, se consideró impreciso el proceso de identificación de variables ambientales relacionadas a las tasas diarias de incremento epidémico, calculadas entre observaciones sucesivas de severidad. Con las restricciones descriptas, los objetivos fueron los siguientes: 1. Ajustar modelos linealizados (Logístico y Gompertz) a los datos de severidad observados por ciclo y sitio. 2. Estimar la severidad y la tasa de incremento epidémico diario a intervalos de tiempo fijos, a partir de las curvas epidémicas seleccionadas. 3. Desarrollar modelos empíricos mediante técnicas de regresión logística, para estimar probabilidades de ocurrencia de distintos niveles de tasas de incremento epidémico (severidad) de Alternaria tenuissima en hojas de arándano, basados en el grado de senescencia foliar y en variables meteorológicas (simples e interactivas). 4. Procesar dichas variables regresoras a intervalos de tiempo fijos, previos a cada valor de severidad, en la curva de progreso epidémico seleccionada por ciclo y sitio. Para evaluar la asociación entre las variables regresoras con la epidémica, se desarrolló un programa basado en el lenguaje de programación del software Statistical Analysis System (SAS), el cual se viene utilizando con regularidad desde el año 1988 por Ricardo Moschini (Moschini y Fortugno, 1996; Moschini et al., 1996; Moschini et al., 1999; Moschini y Perez, 1999; Moschini et al., 2001; Moschini et al., 2002; Moschini et al., 2004; Moschini et al., 2006; Moschini, 2007), para la obtención de modelos predictivos de enfermedades de cultivos basados en variables meteorológicas. Modelos linealizados de ajuste a curvas de progreso epidémico Mediante análisis de regresión lineal (procedi-

miento GLM del SAS) fue evaluada la bondad de ajuste de las formas linealizadas de los modelos Logístico (L) y Gompertz (G) (Campbell y Madden, 1990) a cada una de las 6 epidemias observadas (3 sitios y 2 campañas) (Cuadro 1). Se analizaron para cada modelo el coeficiente de determinación (R2) y la raíz cuadrada del error cuadrático (RECM). La variable dependiente en la regresión lineal fue para L=ln(sev/ (1-sev)) y para G=-ln(-ln(sev)), siendo “ln” el logaritmo natural y “sev” la severidad observada de la enfermedad en proporción, para cada fecha. La variable independiente es el tiempo (d) expresado en días que van transcurriendo desde una fecha inicial. El inicio de cada ciclo epidémico en los años 2008 y 2009, para los 3 sitios, coincidió con la fecha en la cual se acumulan 170 grados día desde el 1 de julio (Tm base=12,5ºC). La temperatura media base es la utilizada para simular el desarrollo de las especies cítricas CDavies y Albrigo, 1994). Estas fechas supuestas de inicio epidémico fueron previas a la primera observación de cada ciclo epidémico por sitio (San Pedro: 27/9/08 y 2/10/09, Concordia: 1/9/08 y 31/8/09, Gualeguaychú: 17/9/08 y 20/9/09). Resolviendo las siguientes ecuaciones se obtuvieron los valores de severidad (Sev) de cualquier día (d) en las curvas de progreso epidémico ajustadas: Modelo L: Sev=1/(1+exp((intercepto+pendiente*d))) Modelo G: Sev=exp(-exp(intercepto)*exp(-pendiente*d)) A partir de los modelos de progreso epidémico seleccionados, se obtuvieron valores estimados de severidad a intervalos de 14 días (el día 1 es la fecha de inicio epidémico definido por sitio y año). La tasa de incremento epidémico diario (TId%) resultó de: (Sev%d–Sev%d-1)/14, siendo “d” el día que completa cada intervalo de 14 días, consecutivamente desde la fecha de inicio (el primer valor de TId% que se considera es el del día 15, desde el día inicial). Para el siguiente paso de desarrollo de modelos de regresión logística (variables meteorológicas y senescencia) sólo se utilizaron las curvas simuladas de progreso epidémico que observaron valores de R2>0,65 y RECM16ºC y Tx0,2 mm DPrHR: número de días con registros de Pr>0,2 mm y HR>umbral (rango: 65 a 85%) DPrHRT: número de días con registros de Pr>0,2 mm y HR>umbral (rango: 65 a 85%), en el rango térmico: Tx16ºC DHR: número de días con HR>umbral (rango: 65 a 85%) • Interacciones (producto de 2 variables simples): It1=FPr*DTxnP It2=FPr*TnM It3=DPrHRT*FPr It4=DPrHRT*TnM • Variable ligada al grado de senescencia foliar (Snc): Toma valores de 1 a 4 de acuerdo al cuartil en el que se encuentra la observación respecto a la duración máxima de las curvas de progreso epidémico analizadas por sitio (198 días en San Pedro, 209 días en Concordia y 171 días en Gualeguaychú). Por ejemplo, si en Concordia se está a 141 días del inicio de la epidemia simulada: 141/209=0,67 o sea tercer cuartil: Snc=3. Lapso de procesamiento de las variables Las variables fueron procesadas en el lapso de 14 días previos a cada valor de TId%, a lo largo de cada curva de progreso epidémico.

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

52

Análisis estadístico 1. Se calcularon los coeficientes de correlación de Kendall (rk) Tau-b (Proc Freq del SAS) (De Wolf et al., 2003) entre los niveles epidémicos (categorías de acuerdo a TId%) y las variables meteorológicas descriptas (simples e interacciones) y el factor de senescencia (Snc). 2. Mediante la técnica de regresión logística se estimó la probabilidad de ocurrencia de cada categoría epidémica en base a una o varias de las variables regresoras analizadas (simples o como componente interactivo) (Johnson et al., 1996; Turechek y Stevenson, 1998; De Wolf et al., 2003; Troglia et al., 2004; Henderson et al., 2007; Moschini, 2007; Carmona et al., 2010). Regla de decisión: se pronostica la categoría epidémica con una probabilidad asociada >=0,5 (binaria) o con la máxima probabilidad asociada de ocurrencia (ordinal). En la evaluación de los mejores modelos de respuesta binaria se toma en cuenta el valor crítico P (valor de probabilidad para clasificar una categoría epidémica como severa que logra la mayor precisión de predicción), que no necesariamente es el valor 0,5. El procedimiento Logistic del SAS, fija modelos de regresión paralelos para datos de respuesta ordinaria por medio del método de máxima verosimilitud, basado en la distribución de probabilidad acumulada de los niveles de respuesta. Una función logit (logaritmo natural de (Pr/1-Pr), siendo “Pr” la probabilidad acumulada de las categorías epidémicas) establece la unión entre el componente esto-

cástico y las variables regresoras meteorológicas analizadas. Los supuestos requeridos por el análisis de regresión lineal paramétrico, no se exigen en la regresión logística. El método de selección de variables Stepwise del procedimiento Logistic, fue usado para obtener el modelo más apropiado, haciendo jugar las variables (simples e interactivas) descriptas y fijando distintos niveles de significancia para entrar y permanecer en el modelo (NSE y NSP respectivamente). 3. La precisión de la predicción se basó en el porcentaje de casos correctamente clasificados. Si en cada uno de los casos analizados se compara la categoría epidémica observada versus la predicha, con máxima probabilidad de ocurrencia por las ecuaciones logísticas desarrolladas, se puede calcular el porcentaje de casos correctamente clasificados.

Resultados y discusión Sólo para San Pedro y Concordia, en ambos ciclos (2008/09 y 2009/10) y para Gualeguaychú en el ciclo 2008/09, se pudieron ajustar modelos linealizados Logístico y Gompertz con altos coeficientes de determinación y bajo error (Figuras 2, 3, 4, 5, 6 y Cuadro 2). Se desechó para el desarrollo de modelos predictivos, la información epidémica de Gualeguaychú correspondiente al ciclo 2009/10. Para este sitio, en la epidemia correspondiente a dicho ciclo (2009/10), el mejor modelo fue Gompertz, aunque obtuvo valores de R2 de sólo 0,54, los cuales se encuentran por debajo de los su-

Fig. 2. Severidad observada versus predicha para el ciclo epidémico San Pedro 2008/09 E. Bombelli et al - Modelado para la predicción de enfermedades...

53

Fig. 3. Severidad observada versus predicha para el ciclo epidémico San Pedro 2009/10

Fig. 4. Severidad observada versus predicha para el ciclo epidémico Concordia 2008/09

Fig. 5. Severidad observada versus predicha para el ciclo epidémico Concordia 2009/10 PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

54

Fig. 6. Severidad observada versus predicha para el ciclo epidémico Gualeguaychú 2008/09

Cuadro 2. Resumen estadístico del análisis de regresión lineal usado en la evaluación de modelos Logísticos (L) y Gompertz (G) de mejor ajuste, para describir las epidemias observadas en Concordia, San Pedro y Gualeguaychú (ciclo 2008/09). Resolviendo las siguientes ecuaciones se obtienen los valores de Severidad en proporción: SevL=1/(1+exp(-(-6,262+0,024*t))); SevL=1/(1+exp(-(-6,265+0,027*t))); SevG=exp(-exp(1,9184)*exp(-0,0069*t));SevG=exp(-exp(1,7415)*exp(0,0061*t)); SevG=exp(-exp(1,6156)*exp(-0,0067*t)). Dichas ecuaciones corresponden a Concordia y San Pedro (2008/09 y 2009/10) respectivamente y Gualeguaychú (2008/09). puestos iniciales (R2>0,65). Los valores de TId% en función de umbrales, se categorizaron binariamente en severo (TId%>=0,077) y moderado a nulo (TId%=0,077), moderado (TId%=0,038) y ligero a nulo (TId%16ºC y Tx0,2 mm; DPrHR: número de días con registros de Pr>0,2 mm y HR>65%; DPrHRT: número de días con registros de Pr>0,2 mm y HR> 65%, en el rango térmico: Tx16ºC; DHR: número de días con HR>65%; Interacciones: It1=FPr*DTxnP; It2=FPr*TnM; It3=DPrHRT*FPr; It4=DPrHRT*TnM; Snc: factor de senescencia: valores de 1 a 4 (primer a cuarto cuartil del ciclo epidémico).

PROYECCIONES - Publicación de investigación y posgrado de la Facultad Regional Buenos Aires

56

Cuadro 4. Modelos logísticos para estimar la probabilidad de ocurrencia de cada categoría de nivel de tasa de incremento epidémico diario (TId%): Binaria: severa (S) y moderada a nula (M); Ordinal: severa (S), moderada (M) y ligera a nula (L), en base a variables meteorológicas simples e interacciones y a un factor de senescencia foliar (Snc). *LogitPrS=ln(PrS/1-PrS); LogitPrMac=ln(PrMac/1-PrMac). Resolviendo las expresiones Exp(LogitPrS)/(1+Exp(LogitPrS)) y Exp(LogitPrMac)/(1+Exp(LogitPrMac)) se obtienen los valores de PrS (probabilidad de observar un nivel de TId% severo (S)) y PrMac (probabilidad acumulada de ocurrencia de un nivel de TId%=> a la categoría moderada (M)). “ln” es el logaritmo natural. PrM=PrMac-PrS. PrL=1-(PrS+PrM) siendo “PrL” la probabilidad de observar un nivel de incremento epidémico ligero a nulo (L). DTxnP: número de días con Tn>16ºC y Tx65%; DPrHRT: número de días con registros de Pr>0,2 mm y HR> 65%, en el rango térmico: Tx16°C; FPr: días con registros de Pr>0,2 mm; Interacciones: It1=FPr*DTxnP; It4=DPrHRT*TnM Snc: factor de senescencia: valores de 1 a 4 (primer a cuarto cuartil del ciclo epidémico). y uniforme ritmo de incremento. Esta situación se acopla perfectamente a la normal ocurrencia de días con temperaturas bajas (alto valor de DTnN: temperaturas

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.