DR
43
DR
Colaboradores CienciAcierta 43
[email protected]
CienciAcierta, Año 10, No. 43, julio - septiembre 2015, es una publicación trimestral editada por la Universidad Autónoma de Coahuila, a través de la Coordinación General de Estudios de Postgrado e Investigación. Edificio D, planta alta, Camporedondo, Saltillo, C.P. 25000, Tel. (844) 4 14 85 82 y 4 10 02 78, http://www.postgradoeinvestigacion.uadec.mx/ Editor responsable: Gerardo Segura/
[email protected]. Reservas de Derechos al uso Exclusivo No. 04-2011-101709443300102, ISSN: en trámite, ambos otorgados por el Instituto Nacional del Derecho de Autor, Licitud de Título y contenido en trámite. Impresa por Xpress Impresores, Periférico Luis Echeverría 1800 poniente, zona industrial, tel (844) 4 15 88 12. Este número se terminó de imprimir el 15 de septiembre de 2015 con un tiraje de 1,500 ejemplares. Las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicación. Se permite la reproducción total o parcial de los contenidos e imágenes originales de la publicación siempre y cuando se cite la fuente.
Búscanos en Facebook/Twitter www.facebook.com/Divulgacion.CGEPI @DivulgacinCGEPI
RCC-43-2015
Lic. Blas José Flores Dávila Rector
Medicina y Ciencias de la Salud Aspectos generales de las anomalías congénitas
3
7
Gustavo de la Peña Sosa Angélica Dolores de las Fuentes García Ángel Eduardo González García Edgar Iván Zapata Zúñiga Ana Lucía Mendoza Villareal Alfonso Álvarez García
Alimentos funcionales, ¿es necesario incluirlos en la dieta?
Claudia Cecilia Rivera Vallejo Catalina Pérez Berumen Odilia Pérez Camacho Jorge Félix Espinosa Muñoz
Vivienda ecológica para la zona semidesértica de General Cepeda Coahuila
22
José de Jesús Hernández Melchor Víctor Raúl Ruíz García
Concepto de las nuevas tecnologías para la educación a distancia 10
26
Celia Blanca Ballesteros Quintero
Problemática de espacios públicos en 29 colonias de alta densidad en Saltillo, Coahuila.
Silvia Marina González Herrera Olga Miriam Rutiaga Quiñones Luz Araceli Ochoa Martínez Mercedes Guadalupe López Raúl Rodríguez Herrera
Desarrollo de nitróxidos cíclicos de seis miembros
18
Arely Monserrat López Martínez Iliana M. de la Garza Rodríguez Edith M. Colunga Urbina Miguel Velázquez Manzanares Judith Amador Hernández
Zinia Fernanda Martínez Mendoza Carolina Saraí Acero Burgos Erika Gabriela Carrizales Berumen Cristian Fernando Nieto Ruiz Ana Cristina Serrano Rodríguez Ana Cecilia Cepeda Nieto
Fisiopatología de la insuficiencia cardiaca
Microextracción líquido-líquido dispersiva. La evolución de una técnica centenaria
Aloma Frigeiro
15
Informática forense. Una forma de conocer el cómo
33
Alma J. Domínguez Lugo Alicia E. Silva Ávila Rodolfo Piña García Marco Polo Vázquez Gutiérrez
Aciago panorama: la mujer oprimida 36 en México Samuel Cepeda Tovar
Medicina y Ciencias de la Salud
Aspectos generales de las
anomalías congénitas Zinia Fernanda Martínez Mendoza Carolina Saraí Acero Burgos Erika Gabriela Carrizales Berumen Cristian Fernando Nieto Ruíz Ana Cristina Serrano Rodríguez Ana Cecilia Cepeda Nieto Las anomalías congénitas son un grupo heterogéneo de trastornos de origen prenatal caracterizados por alteraciones en el desarrollo morfológico, estructural, funcional o molecular del embrión (González, 2014). Son la consecuencia de un gen defectuoso, alteraciones cromosómicas, factores hereditarios, teratógenos o carencias de micronutrientes (OMS, 2015). l cincuenta por ciento de los defectos congénitos son de causa desconocida y se refieren como casos esporádicos que no obedecen a factores de herencia; quince por ciento de éstos son de origen teratogénico, diez por ciento son de causa genética, y 25 por ciento son de origen multifactorial. Las anomalías congénitas externas son diagnosticadas al hacer una exploración clínica minuciosa en el recién nacido, mientras que las internas pueden no ser aparentes de inmediato, por lo que requieren estudios confirmatorios. Sus repercusiones pueden ser estéticas, funcionales con secuelas transitorias o permanentes, o incluso la muerte (González, 2014). Los defectos congénitos se presentan en al menos tres formas: el tipo más frecuente es la malformación, una anomalía intrínseca “programada” del desarrollo cuya causa genética puede ser conocida o no. El segundo tipo es una deformación, observada en un feto con genotipo normal desarrollado en forma anormal, pero que se presetan debido a fuerzas mecánicas en el ambiente uterino. El tercer tipo es la alteración, aparece cuando un tejido con características genéticas normales se modifica a causa de una agresión específica. Un grupo de varias anomalías o defectos puede constituir un síndrome, lo que significa que todas las alteraciones tienen la misma causa. Otro tipo es la secuencia, en la que todo se desarrolla en sucesión como resultado de una lesión inicial. Por último, la relación es una variante en la que se producen con frecuencia problemas particulares pero sin tener un vínculo etiológico (Cunningham,2011).
E
Prevalencia en México Según reportes del 2011 sobre la clasificación de anomalías congénitas (FloresNava, 2011), el labio y el paladar hendido son la alteración de mayor prevalencia, seguida de los apéndices auriculares y de la línea trago-oral labio; mientras que el síndrome de Down ocupa el tercer lugar (tabla 1). Correo para correspondencia:
[email protected]
Medicina y Ciencias de la Salud
Tabla 1. Malformaciones congénitas con mayor prevalencia. Tomado de Flores-Nava 2011.
Si clasificamos a las anomalías congénitas con base en los aparatos y sistemas, las patologías de tipo músculo-esqueléticas son las más frecuentes, con una prevalencia del 12.4 por ciento, las alteraciones de piel y anexos ocupan el segundo sitio; mientras que los defectos a nivel del sistema nervioso central se posicionan en el tercer lugar. Las patologías como el paladar hendido, pie equino y las alteraciones óseas de cráneo, cara y maxilar resultan bastante frecuentes (Flores-Nava, 2011). La prevalencia por individuo afectado se estima en 18.6 por cada mil nacimientos. Si consideramos el conjunto total de malformaciones, la prevalencia asciende a 29.7 por cada mil nacimientos (Flores-Nava, 2011).
Agency of Canada, 2013). Se ha demostrado que genera un treinta por ciento de la discapacidad en la población general (Sistema General de Seguridad Social en Salud, 2013). Se atribuyen 270 mil muertes a las anomalías congénitas en niños menores de cinco años (asociadas mayoritariamente a cromosomopatías y malformaciones mayores), del tres al cinco por ciento del total. La mortalidad en ausencia de diagnóstico y cuidados se ha estimado como de cinco a diez muertes por nacimiento, globalmente (Modell, 2012). Las malformaciones congénitas, deformidades y anomalías cromosómicas se consideran la segunda causa de muerte infantil y representan hasta un 22 por ciento (Fernández, 2012).
Prevalencia mundial Según la OMS, cada año nacen cerca de tres millones de infantes con anomalías congénitas mayores. Las alteraciones se han encontrado en cerca del tres por ciento de los recién nacidos. La prevalencia de anomalías congénitas al nacimiento varía de país a país; reportes del 2014 indican prevalencias tan bajas como 1.07 por ciento en Japón y tan altas como 4.3 por ciento en Taiwán; en Estados Unidos del dos al tres por ciento, Inglaterra dos por ciento y Sudáfrica sólo 1.49 por ciento (Rizk Francine, 2014). Las estadísticas varían según las influencias sociales, raciales, ecológicas y económicas. Las alteraciones congénitas de mayor gravedad, y también las más frecuentes, son las de tipo cardíaco, defectos del tubo neural y el síndrome de Down (Rizk Francine, 2014). La frecuencia total de anomalías congénitas mayores en mortinatos y recién nacidos vivos se estima del tres al cinco por ciento (Public Health
Diagnóstico prenatal Es importante la búsqueda de factores de riesgo asociados a las malformaciones congénitas (Sistema General de Seguridad Social en Salud, 2013). La ecografía prenatal es útil para evaluar la salud del embrión o feto, establecer la edad gestacional y la viabilidad, detectar anomalías congénitas, embarazos múltiples, trastornos del crecimiento fetal, alteraciones de la placenta o cordón. Gracias a esto, el cien por ciento de los defectos congénitos anatómicos pueden diagnosticarse antes del nacimiento; sin embargo, en Latinoamérica sólo se realiza en el 56 por ciento de los embarazos (Saldarriaga, 2014). Además, algunos médicos todavía carecen de experiencia para detectar ciertos marcadores de anomalías (Flores-Nava, 2011). Se recomienda realizar el primer ultrasonido entre las semanas 10 a 13 con seis días; y el segundo entre las 18 a 23 con seis días; cuando se detecta un defecto congénito, se debe realizar una ecografía de
Medicina y Ciencias de la Salud
Tabla 2. Comparativo del diagnostico prenatal por metodos invasivos. Tomado de Public
detalle anatómico. Una vez confirmada y caracterizada se realiza un protocolo médico con el fin de encontrar la causa (Saldarriaga, 2014). Los marcadores serológicos maternos que permiten sospechar principalmente alguna cromosomopatía son los niveles de hormonas como la alfafetoproteína, gonadotropina coriónica humana fracción beta, estriol e inhibina A (Flores-Nava, 2011). El diagnóstico prenatal puede requerir de técnicas invasivas, como muestra de vellosidades coriónicas, células fetales de la amniocentesis, células sanguíneas fetales o suero por cordocentesis o biopsia fetal directa de la piel o músculo (tabla 2). Éstas tienen un mayor riesgo de complicaciones y muerte fetal. También se puede recurrir a la secuenciación del genoma fetal, obteniendo células fetales en sangre materna (Public Health Agency of Canada, 2013). En la tabla 2 se muestran los tres métodos invasivos más utilizados en el diagnóstico prenatal, se compara el tipo de muestra analizada, trimestre en el que se efectúa, riesgos y exactitud (Public Health Agency of Canada, 2013). El diagnóstico prenatal es necesario para definir la mejor vía del nacimiento, de acuerdo con las características y patologías del feto. A su vez, permite integrar un grupo multidisciplinario que atenderá al recién nacido, en el que especialistas estén disponibles y preparados, en los casos que ameriten manejo médico o quirúrgico precoz (Saldarriaga, 2014). En el periodo posnatal, la detección de malformaciones congénitas inicialmente es mediante examen físico sistemático, constituyendo una de las herramientas con mayor sensibilidad para detectarlas (Sistema General de Seguridad Social en Salud, 2013). La detección precoz de los defectos de
nacimiento puede facilitar la instauración de tratamientos capaces de salvar la vida y prevenir su progresión (OMS, 2015). Prevención La atención pregestacional tiene por objeto asegurar el nivel óptimo de bienestar físico y mental de la mujer y su hijo (OMS, 2010). Considerando que los defectos congénitos pueden tener muy diversas causas, es necesario aplicar un amplio repertorio de métodos de prevención. Muchas de estas medidas han logrado un avance en su detección y prevención (Canals, 2014; OMS, 2010). El ácido fólico, al ser tomado de manera periconcepcional, reduce la incidencia de defectos del tubo neural, y algunas otras malformaciones (Rodríguez, 2013). Se recomienda su consumo desde tres meses antes del embarazo y durante los primeros tres meses del mismo, en dosis de 400 µg diarios, vía oral. Sin embargo, se debe considerar que la mayoría de los embarazos no son planificados y las mujeres perciben el mismo a la cuarta semana después de la concepción, cuando el suplemento, ya no es útil; el 53% de las mujeres no conocen los beneficios del ácido fólico, y sólo 12.2 por ciento lo toman preconcepcionalmente (Rodríguez, 2013). Es importante la mejora de la dieta de la mujer en edad fértil, con una ingesta dietética suficiente de vitaminas y minerales (ácido fólico y yodo) y la restricción del consumo de sustancias nocivas (OMS, 2012). Hay que evitar la exposición a sustancias tóxicas como metales pesados, plaguicidas o algunos medicamentos durante el embarazo, así como agentes infecciosos mediante la vacunación (Canals, 2014; OMS, 2012).
Medicina y Ciencias de la Salud
Se debe tener control de enfermedades crónicas, como la diabetes, antes de la concepción y durante la gestación, mediante el asesoramiento, control de peso, dieta y administración de insulina (Canals, 2014; OMS, 2012). Es importante la realización de pruebas para la detección de enfermedades genéticas con la prestación de asesoramiento genético, permitiendo que las parejas limiten el número de descendientes (OMS, 2010). Finalmente, no hay que olvidar la necesidad del aumento y fortalecimiento del personal sanitario y de otros interesados en el fomento de la prevención de los defectos del nacimiento (OMS, 2012). Conclusiones Las anomalías congénitas constituyen un conjunto de anormalidades que se manifiestan a diferentes niveles en el recién nacido. Se estima que hasta tres millones de infantes poseen algún tipo de afección, variando la prevalencia de país en país y con tasas considerables de morbimortalidad. Múltiples son los factores que propician la aparición de los mismos y en ello radica la importancia del diagnóstico prenatal. En la actualidad, nuevas técnicas como el ultrasonido facilitan la identificación de las mismas, y por lo tanto, resulta más fácil intervenir con el objeto de mejorar la calidad de vida del paciente. Por lo tanto, el informar a la madre sobre los diferentes factores de riesgo durante su embarazo juega un papel crucial en la prevención de las anomalías congénitas.
Facultad de Medicina Unidad Saltillo UAdeC
Canals C Andrea, Cavada C Gabriel, Nazer H Julio. “Factores de riesgo de ocurrencia y gravedad de malformaciones congénitas”, Rev Med Chile 2014; 142: 1431-1439. Cunningham, F. Gary. Williams Obstetricia. Dallas, Texas. Mc Graw Hill. 2011 Flores-Nava Gerardo, Dra. Pérez-Aguilera Thelma Valentina, Dra. PérezBernabé Martha María, “Malformaciones congénitas diagnosticadas en un hospital general.Revisión de cuatro años” Acta Pediatr Mex 2011;32(2):101-106 Fernández Cantón Sonia B, Gutiérrez Trujillo Gonzalo, Viguri Uribe Ricardo. “Principales causas de mortalidad infantil en México: tendencias recientes” Bol Med Hosp Infant Mex 2012;69(2):144-148 González González, Nelly Yomar. “Defectos Congénitos” Protocolo de Vigilancia en Salud Pública. Instituto Nacional de Salud Republica de Colombia. 2014. Modell Bernadette, Berry R J, Boyle Coleen A, Christianson Arnold, Darlison Matthew, Dolk Helen, Howson Christopher P, Mastroiacovo Pierpaolo, Mossey Peter, Rankin Judith. “Global, regional, and national causes of child mortality” The Lancet, Vol 380 November 3, 2012, 1556. Organización Mundial de la Salud. “Anomalías congénitas”. Nota descriptiva N°370. Octubre de 2012. [citado12 feb 2014]. Disponible en: http://www.who.int/mediacentre/factsheets/fs370/es/index.html Organización Mundial de la Salud. “Defectos congénitos.63ª Asamblea Mundial de la Salud A63/10. Punto 11.7 del orden del día provisional 1 de abril de 2010”. Informe de la Secretaría. 2010. Organización Mundial de la Salud/CDC/ICBDSR. Vigilancia de anomalías congénitas. Atlas de algunos defectos congénitos. Ginebra: Organización Mundial de la Salud; 2015. Public Health Agency of Canada, Congenital Anomalies in Canada: A perinatal health surveillance report, Ottawa, 2013. Rizk Francine, Salameh Pascale, Hamadé Aline. “Congenital Anomalies: Prevalence and Risk Factors”. Universal Journal of Public Health 2(2): 5863, 2014 http://www.hrpub.org DOI: 10.13189/ ujph.2014.020204 Rodríguez Dominguez PL, Collazo Cantero I. “Embarazo y uso del ácido fólico como prevención de los defectos del tubo neural”. Rev Méd Electrón [Internet]. 2013 Mar- Abr [citado: fecha de acceso]; 35(2). Disponible en: http://www.revmatanzas.sld.cu/revista%20medica/ano%202013/vol2%20 2013/tema02.htm Saldarriaga Gil Wilmar, Ruiz Murcia Fabián Andrés, Fandiño-Losada Andrés, Cruz Perea Manuel Enrique, Isaza de Lourido Carolina. “Evaluación del diagnóstico prenatal de anomalías congénitas diagnosticables por ecografía prenatal en pacientes en unidades de cuidado intensivo neonatal de Cali, Colombia” Colombia Médica - Vol. 45 Nº1 2014 (Ene-Mar) 32-38. Sistema General de Seguridad Social en Salud - Colombia. Guía de práctica clínica. Detección de anomalías congénitas en el recién nacido. Guía No. 03. 2013.
Medicina y Ciencias de la Salud
Fisiopatología de la insuficiencia cardiaca Gustavo de la Peña Sosa Angélica Dolores de las Fuentes García Ángel Eduardo González García Edgar Iván Zapata Zúñiga Ana Lucía Mendoza Villareal Alfonso Álvarez García La insuficiencia cardíaca (IC) se define como la incapacidad del corazón para expulsar una cantidad suficiente de sangre que permita mantener una presión arterial adecuada para llevar el oxígeno a los tejidos del organismo. Numerosas alteraciones neuroendocrinas suceden en la IC buscando compensar la incompetencia del corazón. os cuatro mecanismos compensadores: secreción del péptido auricular natriurético, la estimulación simpática, la activación del sistema renina angiotensina aldosterona y la hipertrofia cardíaca, pueden normalizar la función cardiaca, pero si persisten durante un tiempo prolongado propician la caída del gasto cardíaco, favorecen la progresión de la insuficiencia cardíaca y la aparición de los signos y síntomas clásicos de esta patología.
L
Fisiología cardiovascular Actualmente la insuficiencia cardíaca (IC) no puede ser considerada como una enfermedad, sino como un síndrome que engloba varias etiologías que dañan al corazón y que pueden provocar muerte prematura. Como concepto, la insuficiencia cardíaca es la incapacidad del corazón para expulsar una cantidad suficiente de sangre que permita mantener una presión arterial adecuada para llevar el oxígeno a los tejidos del organismo (1). Las dos funciones primordiales del corazón son cubrir las necesidades metabólicas de los tejidos corporales por medio de un adecuado aporte de sangre y recibir toda la sangre proveniente de los tejidos (2). Para llevar a cabo estas funciones es necesario que el llenado, la estructura y la función del corazón sean adecuadas (3). La función del corazón, o el gasto cardíaco (GC), es garantizada por la integración de la función eléctrica y mecánica. El GC resulta de la frecuencia cardíaca (FC) por el volumen sistólico. El sistema nervioso autónomo y distintas hormonas se encargan de regular la frecuencia cardíaca, mientras que el volumen sistólico se ve afectado por la precarga, la contractibilidad y la poscarga (4). El ciclo cardíaco se compone de tres eventos básicos: contracción, relajación y llenado ventricular. La contracción del ventrículo sucede cuando la presión aumenta como consecuencia de la entrada de iones calcio y el desencadenamiento de la interacción de la actinamiosina (5). Durante la fase de contracción se conoce como contracción isovolumétrica al periodo entre el cierre de la válvula auriculoventricular y apertura de la semilunar. Correo para correspondencia:
[email protected]
Medicina y Ciencias de la Salud Entre mayor sea el entrecruzamiento y fuerza de cizallamiento de los filamentos, la contracción será más fuerte, se vence la presión y se abre la válvula semilunar. La relajación del ventrículo ocurre cuando disminuyen las concentraciones citosólicas de calcio por el secuestro en el retículo sarco-plásmico, entonces las fibras pasan al modo de relajación. Cuando el ventrículo está relajándose, la válvula semilunar cerrada y no hay cambio en el flujo, se denomina relajación isovolumétrica (6). El llenado ventricular se suscita cuando la presión del ventrículo cae por debajo de la aurícula, justo después de la apertura de la válvula auriculoventricular (7). El llenado continúa por contracción auricular (sístole auricular) para vaciar el flujo hacia el ventrículo. La función ventricular normal es propiciada por la unidad funcional del corazón, la miofibrilla, una fibra muscular especializada encargada de la contracción y relajación. La suma de contracción de todas las miofibrillas de forma sinérgica se conoce como contracción miocárdica (8). En condiciones normales el volumen diastólico es suficiente para perfundir a los tejidos por cada latido. El gasto sistólico normal es de 60-100 cc y la fracción de eyección normal es de >60%. La frecuencia cardíaca permite regular la cantidad de sangre que sale por minuto de acuerdo con las necesidades tisulares (9). A esto se le conoce como reserva cronotrópica, que constituye la capacidad del corazón para aumentar el GC a través del aumento de la FC
(10). La reducción del GC producido por la insuficiencia cardíaca puede normalizarse aumentando la FC. La reserva diastólica (RD) y la reserva sistólica son otros mecanismos para aumentar el GC, a través del mecanismo de Frank-Starling (FS). El límite de la RD es el edema pulmonar. Se utiliza este mecanismo cuando disminuye la función ventricular e IC (11). El mecanismo de FS y el cambio geométrico del corazón normalizan el GC (tabla 1). La reserva sistólica representa la capacidad del corazón para aumentar el GC por aumento de la contractilidad su límite es el daño funcional o estructural de la miofibrilla (12). El corazón utiliza la reserva sistólica a través de la estimulación neurohumoral endógena (catecolaminas) y por el efecto inotrópico externo (digital, dobutamina, amirnona, milrinona, etc.) Entonces la curva de FS se desvía a la izquierda (figura 1). La reserva sistólica requiere la integridad de la miofibrilla, sin ella se pierde la posibilidad de desviar la curva la izquierda, sucede un choque cardiogénico. El paciente con choque cardiogénico no mantiene el GC normal aun utilizando al máximo la RD (originando edema pulmonar), la administración de inotrópicos tampoco desvía la curva. Todo a causa de la depresión contráctil producida por la destrucción de las miofibrillas (13). Un bajo gasto cardíaco se traduce en un inadecuado aporte sanguíneo para los tejidos del cuerpo (14).
Tabla 1. Comparativo entre los volúmenes cardíacos de un corazón normal y otro con insuficiencia cardíaca compensada.
Figura 1. Curva de FS, normal y en insuficiencia cardíaca
Medicina y Ciencias de la Salud Fisiopatología Numerosas alteraciones neuroendocrinas buscan compensar la incompetencia del corazón, se encuentran elevados en plasma factores como: norepinefrina, epinefrina, endotelina, arginina vasopresina, renina, angiotensina II, aldosterona neuropéptido Y, PGI2, PGF2, cortisol, hormona del crecimiento, FNT, IL-6 (15). La patología se suscita por la activación de tres sistemas: SNS, sistema renina angiotensina aldosterona (SRAA) y un sistema contrarregulador (péptidos natriuréticos). La activación de éstos tres se denomina “teoría neurohumoral de la insuficiencia cardiaca” (16). El péptido auricular natriurético (PAN) es secretado como respuesta al aumento de la presión diastólica ventricular, que incrementa la presión en las actividades auriculares debido a la insuficiencia. El PAN ejerce su acción principalmente en el riñón, en el glomérulo causa constricción arteriolar y dilatación de la arteriola aferente, lo que da como resultado el aumento del filtrado glomerular. En el túbulo colector disminuye la reabsorción de sodio, por lo que aumenta la excreción del mismo, y excreción de agua; también inhibe la secreción de renina y aldosterona, consiguiendo preservar el GC al disminuir el volumen sanguíneo pero conservando la perfusión tisular manteniendo la función del corazón (17). La activación del sistema nervioso simpático se estimula cuando, por incompetencia cardíaca, no se logra la perfusión adecuada de los tejidos. Mediante la secreción de adrenalina y noradrenalina se eleva el gasto cardíaco por el aumento de la frecuencia cardíaca (cronotropismo positivo) y de la contractilidad (inotropismo positivo). Cuando con este mecanismo normaliza el GC, el paciente sólo presenta taquicardia sinusal, palidez por vasoconstricción periférica y diaforesis (18). Si el mecanismo adrenérgico persiste, sucede una redistribución de flujo hacia órganos vitales (cerebro y corazón) y se sacrifican tejidos como la piel, músculo esquelético y sistema esplácnico (19). El sistema renina angiotensina aldosterona (SRAA) prácticamente no se expresa en la insuficiencia cardíaca asintomática. Su activación se inicia por un estímulo de compensación que más tarde se convierte en deletéreo (20). La activación persistente del sistema adrenérgico condiciona la redistribución del flujo sanguíneo provocando hipoperfusión renal. La disminución del flujo sanguíneo renal promueve la secreción de renina y la consiguiente retención de sodio y agua. La secreción de renina estimula la secreción de angiotensina I que mediante la enzima convertidora de angiotensina (ECA) se transforma en
angiotensina II y ésta, a través de sus receptores tisulares (AT1), estimula la secreción de aldosterona que promueve la retención de agua y sodio (21). Estos cambios se traducen clínicamente por oliguria, aumento del volumen sanguíneo, aumento del retorno venoso, aumento del volumen diastólico (cardiomegalia) e hipertensión venosa sistémica y pulmonar (22). La hipertensión venosa sistémica provoca plétora yugular, hepatomegalia, edema de miembros inferiores y cuando es extrema: ascitis. La hipertensión venosa pulmonar causa disnea, que puede ser de pequeños, medianos o grandes esfuerzos. En casos graves: disnea de reposo, ortopnea, disnea paroxística nocturna o edema agudo de pulmón. La retención de líquidos incrementa el retorno venoso al corazón, incrementando el volumen diastólico y provoca cardiomegalia, que cuando coincide con taquicardia y mala función ventricular (ritmo de galope), se establece la triada de los signos centrales de insuficiencia cardíaca (23). Toda esta secuencia de fenómenos causa cambios moleculares, celulares e intersticiales que se manifiestan clínicamente como alteraciones en el tamaño, la forma y la función del corazón después de una lesión original. La célula principalmente involucrada en el proceso de remodelación es el miocito (24). La remodelación ventricular consiste en el alargamiento e hipertrofia de los miocitos, isquemia e infarto de los mismos, para después formar una cicatriz con su siguiente reabsorción y acumulación de colágena para remodelar el daño. Esta remodelación provoca un aumento en la cavidad ventricular que origina una hipertrofia compensadora. La hipertrofia miocárdica es un mecanismo adaptativo que aparece como consecuencia de los procesos de remodelación ventricular para normalizar el estrés diastólico (aumento de volumen) o sistólico (aumento de presión). Cuando la hipertrofia normaliza el estrés diastólico o sistólico se denomina hipertrofia adecuada (25). Cuando la hipertrofia es excesiva al grado de que el estrés diastólico y sistólico están disminuidos, se convierte en inapropiada, la cual se vuelve una respuesta patológica (26). Y cuando la hipertrofia es incapaz de normalizar el estrés parietal en diástole o en sístole sucede lo que se conoce como hipertrofia inadecuada, ello trae como consecuencia la dilatación ventricular excesiva, con aumento del estrés parietal y contracción miocárdica insuficiente (27). Los síntomas y los signos de la insuficiencia cardíaca son causados por la activación neuroendócrina que intenta normalizar el gasto cardíaco (28).
Medicina y Ciencias de la Salud Conclusión El corazón junto con el sistema neuroendocrino, activan mecanismos compensadores que pueden mantener a un paciente con insuficiencia cardíaca totalmente asintomática por muchos años. Los mecanismos compensadores: la secreción del péptido auricular natriurético, la estimulación simpática, la
activación del sistema renina angiotensina aldosterona y la hipertrofia cardíaca pueden normalizar la función cardíaca, pero si persisten propician la caída del gasto cardíaco, favorecen la progresión de la insuficiencia cardíaca y la aparición de los signos y síntomas clásicos de esta patología.
Facultad de Medicina Unidad Saltillo UAdeC
1. Katz, M.A. & Konstam, A.M. Heart Failure: Pathophysiology, Molecular Biology, and Clinical Management. Lippincott Williams & Wilkins. 2012. 2. Mohrman, E.D. & Heller, J.L. Fisiología Cardiovascular. México: McGraw-Hill Interamericana. 2007. 3. Hanacek, J. & Šurinová, L. Pathophysiology of Heart Failure. Disponible en: http://www.jfmed.uniba.sk/fileadmin/user_upload/editor s/PatFyz_Files/Pre dnasky_v_anglictine/23Hear t_failure_JH.ppt. Fecha de consulta: 5/Abril/2013. 4. Vargas Barrón, J. Tratado de Cardiología. Sociedad Mexicana de Cardiología. México: Intersistemas Editores. 2006. 5. Bonow, R. Braunwald´s Heart Disease. A textbook of cardiovascular medicine. Philadelphia: Elsevier Saunders. 2012. 6. Jalil, M.J. & de Petris, V.V. Insuficiencia Cardíaca: Mecanismos . Disponible en: http://escuela.med.puc.cl/paginas/cursos/tercero/IntegradoTercero/me c-231_Clases/mec-231_Cardiol/Guias-Estudios/TEMA%203%20Insuficien cia%20cardiaca%20I.%20Mecanismos%20de%20sobr ecarga%20ventric ular%202012.pdf. Fecha de consulta: 28/Mayo/2013. 7. Departamento de Ciencia Fisiológicas. Ciclo Cardíaco y Función Ventricular. Disponible en: http://med.javeriana.edu.co/fisiologia/nguias/gcall.htm. Fecha de consulta: 28/Mayo/2013. 8. Guadalajara Boo, J. F. Cardiología. Función Ventricular e Insuficiencia Cardíaca. Sexta edición. México: Méndez Editores. 2009. 463-537. 9. Guadalajara Boo, J. F. Cardiología. Función Ventricular e Insuficiencia Cardíaca. Sexta edición. México: Méndez Editores. 2009. 463-537. 10. Guadalajara Boo, J. F. Cardiología. Función Ventricular e Insuficiencia Cardíaca. Sexta edición. México: Méndez Editores. 2009. 463-537. 11. Guadalajara Boo, J. F. Cardiología. Función Ventricular e Insuficiencia Cardíaca. Sexta edición. México: Méndez Editores. 2009. 463-537. 12. Guadalajara Boo, J. F. Cardiología. Función Ventricular e Insuficiencia Cardíaca. Séptima edición. México: Méndez Editores. 2012. 13. Guadalajara Boo, J. F. Cardiología. Función Ventricular e Insuficiencia Cardíaca. Sexta edición. México: Méndez Editores. 2009. 463-537. 14. De la Serna, F. Aspectos Generales de la Fisiopatología de la Insuficiencia Cardíaca. Disponile en: http://www.fac.org.ar/edicion/inscac/cap02_2010. pdf. Fecha de consulta: 28/Mayo/2013. 15. Roig Minguell, E. Utilidad clínica de los marcadores neurohormonales en la insuficiencia cardíaca. Revista Española de Cardiología , (57): 347-56.
2004. 16. De la Serna, F. Clínica de la Insuficiencia Cardíaca. Disponible en: http://www.fac.org.ar/edicion/inscac/cap10_1_2010.pdf. Fecha de consulta: 28/Mayo/2013. 17. Guadalajara Boo, J. F. Cardiología. Función Ventricular e Insuficiencia Cardíaca. Sexta edición. México: Méndez Editores. 2009. 463-537. 18. González-Gay García, J.M., Espinosa Almendro, J.M., Alegría García, J. Insuficiencia Cardíaca. Disponible en: http://www.juntadeandalucia.es/salud/ export/sites/csalud/galerias/documentos/p_3_p_3_pr ocesos_asistencial es_integrados/insuficiencia_cardiaca/insuficiencia_cardiaca.pdf. Fecha de consulta: 28/Mayo/2013. 19. Guadalajara Boo, J. F. Cardiología. Función Ventricular e Insuficiencia Cardíaca. Sexta edición. México: Méndez Editores. 2009. 463-537. 20. Argüero, S.R. & Magaña Serrano, J.A. Insuficiencia Cardíaca. Disponile en: http://www.facmed.unam.mx/eventos/seam2k1/2008/feb_01_ponencia.ht ml. Fecha de consulta: 28/Mayo/2013. 21. Guadalajara Boo, J. F. Cardiología. Función Ventricular e Insuficiencia Cardíaca. Sexta edición. México: Méndez Editores. 2009. 463-537. 22. Gimeno, G. & Diez, M. Fisiopatología de la insuficiencia cardíaca. http://www.sac.org.ar/files/files/prosac7-p1-12.pdf. 28/Mayo/2013. 23. Guadalajara Boo, J. F. Cardiología. Función Ventricular e Insuficiencia Cardíaca. Séptima edición. México: Méndez Editores. 2012. 24. De la Serna, F. (2010). Hipertrofia Cardíaca. Remodelación. Apoptosis. . http://www.fac.org.ar/edicion/inscac/cap07_2010.pdf. 28/Mayo/2013. 25. Guadalajara Boo, J. F. Cardiología. Función Ventricular e Insuficiencia Cardíaca. Séptima edición. México: Méndez Editores. 2012. 26. Méndez Ortiz, A. Fisiopatología de la Insuficiencia Cardíaca. Archivos de cardiología de México , vol.76, suppl.2, pp. 182-187. 2006. 27. Jalil, M.J. & de Petris, V.V. (2012). Fisiología Cardiovascular. Disponible en: http://escuela.med.puc.cl/paginas/cursos/tercero/IntegradoTercero/mec231_Clases/mec-231_Cardiol/Guias-Estudios/TEMA%201%20Fisiologia% 20CV%202012.pdf. Fecha de consulta: 28/Mayo/2013. 28. Montijano Cabrera, M.A. & Caparrós, C.A. Insuficiencia Cardíaca. Disponible en:http://www.medynet.com/usuarios/jraguilar/Manua l%20de%20urgencias%20y%20Emergencias/insucar.pdf. Fecha de consulta: 28/Mayo/2013.
Silvia Marina González Herrera Olga Miriam Rutiaga Quiñones Luz Araceli Ochoa Martínez José Luis Martínez Hernández Mercedes Guadalupe López Raúl Rodríguez Herrera
Alimentos funcionales, ¿es necesario incluirlos en la dieta?
Desde sus orígenes, los seres humanos conocen la relación que tienen los alimentos con su bienestar y salud aun cuando no tuvieran los conocimientos científicos para entender cómo interaccionan los nutrientes con el organismo.
n la actualidad los avances científicos y tecnológicos en el campo de la alimentación han permitido entender esta estrecha relación entre saludbienestar-alimentación, contribuyendo con ello al desarrollo explosivo de un nuevo tipo de alimentos, los “alimentos funcionales”. La demanda por este tipo de alimentos que promete mejorar algún aspecto de salud o evitar el riesgo de enfermedades además de nutrir, ha crecido en las últimas décadas, en gran parte, porque las expectativas de vida han aumentado, y con ello los retos sociales y económicos que significa enfrentar enfermedades crónicodegenerativas (Abdel, 2010). Al mismo tiempo, la industria de alimentos ha enfocado su atención en el desarrollo, promoción y comercialización de estos productos, de tal manera que hoy en día se pueden encontrar alimentos funcionales de todo tipo en la mayoría de los supermercados, en consecuencia, resulta tentador adquirir uno de estos productos a pesar de que en ocasiones ni se conoce el significado de alimento funcional. Ante esta avalancha de productos, surge entre la población la pregunta: ¿Es necesario consumirlos? Conocer con más precisión qué es un alimento funcional, su origen, así como aspectos referentes a legislación sobre declaraciones de salud y opiniones de especialistas puede orientar a la población para tomar una decisión sobre su consumo. Por lo tanto, los objetivos de este trabajo son presentar y discutir estos aspectos.
E
Alimentos funcionales Para entender mejor los alimentos funcionales vale la pena remontarse a la antigua Grecia. Aun cuando la nutrición estaba lejos de conocerse como una disciplina científica, filósofos como Hipócrates reconocían la importancia de la relación entre alimentación y salud (460–377 AC) lo que le llevó a afirmar que “diferentes Correo para correspondencia:
[email protected]
enfermedades dependen de la nutrición” (Andlauer y Furst, 2002). En realidad, el uso de algún alimento con el propósito de solucionar un problema de salud, no es nuevo, muchos alimentos tradicionales cubrían esa función, sobre todo en países de oriente, como es el caso del tempeh, alimento fermentado de soya al que se le atribuyen propiedades antidiarreicas y una función importante en la reducción de lípidos (Darwin and Widjaja, 2000). En China, la bebida llamada kombucha, preparada a partir de té negro fermentado, se asocia con la prevención de enfermedades cardiovasculares y propiedades antiinflamatorias (Gharib, 2009). Quizá también pudieran considerarse como precursores de este tipo de alimentos la adición de yodo en la sal para prevenir el bocio en 1835 y el diseño de alimentos especiales para los astronautas hacia 1950 con el fin de disminuir sus desechos (Cortés et al. 2005). Lo cierto es que en esta relación alimento-medicamento pueden estar las bases de lo que hoy se denomina “alimento funcional”. Las áreas sobre las que se ha encontrado una influencia positiva del consumo de estos alimentos son: control de peso, salud ósea, prevención de cáncer, función digestiva, función cardiovascular, entre otras (Barberá et al. 2007). En el transcurso de las dos últimas décadas se han utilizado diversas denominaciones para los alimentos funcionales, entre las que se encuentran: productos nutracéuticos, alimentos genéticamente diseñados, farmalimentos, fitoalimentos, fitonutrientes, alimentos terapéuticos, alimentos de valor añadido, entre otros (Cortés et al. 2005). En Japón fue donde en 1984 se utilizó por primera vez el nombre de “alimentos funcionales”, después de numerosos estudios realizados por un grupo de científicos sobre nutrición, fortificación, satisfacción sensorial y modulación de sistemas fisiológicos, definiéndolos como: “Alimentos procesados que contienen ingredientes que influencian de manera benéfica funciones específicas del cuerpo además de ser nutritivos” (Shimizu, 2012). Sin embargo, esta definición ha ido evolucionando, siendo la más actual la emitida por la comisión para acción concertada FuFoSE (por sus siglas en inglés, Functional Food Science in Europe) en la cual se resalta de manera importante que: “El alimento debe haber demostrado satisfactoriamente que mejora en forma importante el estado de salud, el bienestar o la reducción del riesgo de enfermedad, aparte de las propiedades nutricionales adecuadas, y que no deberán ser píldoras o pastillas, sino parte de un patrón normal de alimento y ser ingeridos en las cantidades que se espera sean consumidos en la dieta”
(Ozen, et al. 2012). Cabe aclarar que actualmente no hay una definición mundialmente aceptada, por lo que “alimento funcional” se sigue considerando más un concepto, que un grupo de alimentos. Gracias al desarrollo que han tenido estos productos hoy en día se puede hablar incluso de categorías de alimentos funcionales, como se muestra en el cuadro 1. Categoría
Definición
Ejemplos
Productos Fortificados
Alimentos fortificados con nutrientes adicionales a los que ya tienen.
Productos Enriquecidos
Alimentos a los que se adicionan nutrientes o componentes nuevos Alimento en el cual un componente perjudicial ha sido retirado, reducido o reemplazado con otro componente con efectos benéficos Alimento en el cual un componente ha sido naturalmente potenciado a través de condiciones especiales de desarrollo, nueva composición de la alimentación, manipulación genética, etc.
Productos Alterados
Productos Potenciados
Jugos de frutas adicionados con vitamina “C” Margarina con probióticos o prebióticos Fibras como sustituto de grasa en carnes y helados Huevos con un incremento en contenido de omega-3 logrado con la alteración de la alimentación del pollo
Cuadro 1. Tipos de alimentos funcionales (Siró, 2008; Kotilainen, 2006; Spence, 2011).
Estas categorías se emplean más en países occidentales y en Europa. En Japón (cuadro 2), se describe otra clasificación para alimentos FOSHU (alimentos específicos para uso en salud, por sus siglas en inglés) de acuerdo a las propiedades que especifica cada producto (Shimizu, 2012). En México la norma NOM-086-SSA1-1994, únicamente autoriza emplear ciertos términos para clasificar alimentos modificados, tal como aparece en el cuadro 3. Categoría
Definición
1
Alimentos para promover la salud intestinal
2
Alimentos para fomentar la salud de dientes y encías. Alimentos para facilitar la absorción de minerales Alimentos para incrementar la resistencia ósea Alimentos relacionados con el control de la hipertensión Alimentos relacionados con la regulación de glucosa en sangre Alimentos relacionados con la regulación del colesterol en sangre Alimentos para el control de acumulación de grasa
3 4 5 6 7 8
Cuadro 2. Clasificación de alimentos FOSHU en Japón
Categoría
Definición
Adicionado
Cuando se han añadido nutrimentos contenidos o no normalmente en un producto. Cuando se añaden una o varias vitaminas, minerales o proteínas en concentraciones superiores a las que tiene el alimento en forma natural Cuando el producto no contiene normalmente tales componentes
Enriquecido
Fortificado
Cuadro 3. Clasificación de alimentos modificados según NOM086-SSA1-1994 (PROFECO, 2013).
Lo que constituye una realidad, es que los estantes en los supermercados se están llenando rápidamente de productos que caen dentro de estas categorías, no obstante, la legislación no está avanzando a la misma velocidad. Legislación Japón es pionero en la legislación de alimentos funcionales al autorizar el sistema de regulación FOSHU, el cual exige, para incluir un producto en esta clasificación, una considerable cantidad de evidencia científica que respalde la decla-ración (Shimizu, 2012). Ahora bien, se considera que la legislación sobre estos alimentos apenas está iniciando. En Europa, Estados Unidos y Canadá se están emitiendo leyes dirigidas a regular principal-mente las declaraciones de salud que hace el productor o distribuidor de alimentos funcionales en las etiquetas. Estas declaraciones se han categorizado, de manera que al ser impresas orienten e informen al consumidor en forma precisa y honesta sobre los beneficios para la salud que ofrece, lo cual es un paso importante, aun cuando existe controversia al respecto (Hasler, 2008). En México aún no existe legislación específica para alimentos funcionales. La Procuraduría Federal del Consumidor se apoya en las normas que ya están establecidas para los alimentos en general, como la norma NOM-086-SSA1-1994, para alimentos modificados, pero no se mencionan normas específicas para alimentos funcionales como tales. Las declaraciones de salud en etiquetas ya se utilizan en muchos países, incluyendo en México, pero no en todos están reglamentadas. Giannetti et al. (2009) reportan la siguiente distribución a nivel mundial de alimentos funcionales que cuentan con declaraciones referentes a la salud y promocionan sus propiedades. La figura 1 muestra la distribución hasta el 2009, donde Europa aparece como líder. Las declaraciones que aparecen en las etiquetas están influyendo en forma relevante para que la gente se interese en adquirir estos productos. Otro factor importante para el incremento en el consumo de estos alimentos es la concientización de la gente sobre la relación entre alimentación y salud, gracias a la información científica o informal que recibe a través de los diversos medios de comunicación. Así que la población consume estos alimentos con el fin de: a). suplir carencias de nutrientes; b) evitar enfermedades crónicas; c) estar saludable; d) combatir el envejecimiento; e). fortalecer a grupos especiales, como los atletas; f) remediar alguna enfermedad (Ganneti, et al.
2009). Es indudable que conocer la opinión de organizaciones especialistas en alimentos y nutrición puede ser un apoyo importante para la decisión de consumo. Posición de organizaciones y académicos ante los alimentos funcionales Ante la evidente necesidad de examinar el entorno de los alimentos funcionales el Instituto de Tecnólogos en Alimentos (IFT por sus siglas en inglés) convocó a un panel de expertos con el fin de discutir aspectos relevantes sobre alimentos funcionales. Este panel reconoció la importancia y potencial de estos productos, tras analizar casos que tienen evidencias científicas de resultados positivos, por otra parte, también hizo recomendaciones para mejorar el marco de regulación e identificó áreas de investigación que considera importantes para el desarrollo de alimentos funcionales como son: entendimiento de los mecanismos de acción de nutrientes, relación dosis-respuesta, resultados clínicos individualísticos, identificación de nuevos biomarcadores, entre otros (IFT Report,2005). En el libro Alimentos funcionales publicado por la Dirección General de Salud Pública y Alimentación de Madrid, se mencionan dos razones por las cuales los alimentos funcionales pueden resultar necesarios. Una es debido al estilo de vida actual dentro del cual se han adquirido hábitos alimenticios poco saludables que conducen a una dieta desequilibrada que se puede subsanar con alimentos funcionales, y la otra los cambios originados en parte debido a la participación de la mujer en la vida productiva, que ha motivado que haya menos tiempo para cocinar y un corto tiempo para comer, lo que ocasiona una alimentación inadecuada (Barberá et al. 2007).
Figura 1. Distribución geográfica de alimentos con declaración de función en la salud en el mercado de alimentos (Gannetti et al. 2009).
Sumado a lo anterior, la Academia de Nutrición y Dietética en Estados Unidos fija su posición sobre los alimentos funcionales en dos puntos: primero reconoce que aun cuando todos los alimentos proporcionan cierto nivel de función fisiológica, los alimentos funcionales, definidos como alimentos integrales, enriquecidos, fortificados o mejorados, tienen un efecto benéfico en la salud cuando son consumidos en una dieta variada sobre una base regular, en niveles efectivos, respaldados en estándares significativos de evidencia, y en otro punto apoya la aprobación de la FDA a declaraciones de salud en etiquetas de alimentos cuando están soportadas por un riguroso respaldo científico (NDA, 2013). Apoyando otros aspectos, en el mismo sentido, la organización EUFIC (European Food Information Council) expresa un punto de vista a favor de que la investigación se enfoque en analizar cuáles alimentos funcionales, de la gran variedad que ya existen en el mercado, pueden actuar sobre el mejoramiento de la salud, sobre todo en lo que se refiere a reducir el riesgo o retrasar la aparición de enfermedades como el cáncer, enfermedades cardiovasculares y osteoporosis, además opinan que los alimentos funcionales en combinación con un estilo de vida sano, pueden dar resultados positivos en el mejoramiento de la salud (EUFIC, 2006).
2
Abdel-Salam, A.M. 2010. Functional food: Hopefulness to good health. American Journal of Food Technol. 5 (2): 86-99. Academy of Nutrition and Dietetics, USA. 2013. Position of the Academy of Nutrition and Dietetics: Functional Foods. Journal of the Academy of Nutrition and Dietetics. (113):1096-1103. Andlauer, W., Furst, P. 2002. Nutraceuticals: a piece of history, present status and outlook. Food Research International. (35) 171–176. Cortés, M.R., Chiral, A., Puente, L.D. 2005. Alimentos Funcionales: Una historia con mucho presente y futuro. VITAE, Revista de la Facultad de Química Farmacéutica U de A Colombia. 12 (1): 5-14. , K., , L. 2000. Functional food and contemporary nutrition-health paradigm: tempeh and its potential beneficial effects in disease prevention and treatment. Follow Nutrition. 16 (7): 697. EUFIC. 2006. Alimentos Funcionales. http://www.eufic.org/ar ticle. Consultada Septiembre 2013. Gharib, O.A. 2009. Effects of kombucha on oxidative stress induced nephrotoxicity in rats. Chinese Medicine. 4: (23) 1-6. 1 Giannetti, V., Testani, E, Recchia, L. 2009. Food consumption and innovation: Functional Foods. Journal of Commodity Science, Technology and Quality. 48 (3) 213-225.
Conclusiones En síntesis, tomando en cuenta la información descrita, y que la opinión de los especialistas converge en varios aspectos: reconocen que hay evidencias científicas sobre la efectividad de diversos alimentos funcionales, que pueden ser útiles en balancear una dieta deficiente o coadyuvar en evitar problemas de salud en ciertos casos, pero por otra parte, insisten en que se requiere ampliar el marco legal para exigir más soporte científico en las declaraciones de salud al promocionar un producto y finalmente, consideran que es necesario profundizar la investigación en aspectos tales como dosis-respuesta, nuevos biomarcadores y establecer límites en el consumo. Por tanto, lo discutido en este articulo permite establecer que existen bases científicas que indican que la gente puede beneficiarse del consumo de alimentos funcionales, incluso en algunos casos pueden volverse una necesidad, siempre y cuando haya una orientación por profesionales de la salud o nutriólogos, de acuerdo a sus características y tratando de llevar un estilo de vida sano. El futuro de los alimentos funcionales es prometedor, y el reto es multidisciplinario, para médicos, nutriólogos, tecnólogos en alimentos, industria alimentaria, investigadores y autoridades gubernamentales, para asegurar que las declaraciones de salud en los alimentos que llegan al consumidor estén científicamente sustentadas.
Facultad de Ciencias Químicas UAdeC
Hasler, C.M. 2008. Health Claims in the United States: An Aid to the Public or a Source of Confusion? Journal of Nutrition. 138: 1216S–1220S. IFT Expert Report. 2005. Functional Foods: Opportunities and Challenges. http://www.ift.org. Consultada septiembre de 2013. Kotilainen, L., Rajalahti, R., Ragasa, C., & Pehu, E. 2006. Health enhancing foods: Opportunities for strengthening the sector in developing countries. Agriculture and Rural Development. Discussion Paper 30. Barberá, M.J.M. et al. 2007. Alimentos funcionales: aproximación a una nueva alimentación. Ed. Dirección General de Salud Pública y Alimentación. Madrid España. ISB 978-84-690-9493-8.pp 17-28. Ozen, A.E., Pons, A., Tur, J.A. 2012. Worldwide consumption of functional foods:a systematic review. Nutrition Reviews 70 (8): 472-481. PROFECO. 2013. Revista del Consumidor, México, 48-58. Siro, I., Kapolna, E., Kapolna, B., Lugasi, A. 2008. Functional food. product development, marketing and consumer acceptance. A review. Appetite. (51): 456-467. Shimizu, M. 2012. Functional Food in Japan: Current Status and Future of Gut-Modulating Food. Journal of Food and Drug Analysis. (20): 213-216. Spence, J. T. (2006). Challenges related to the composition of functional foods. Journal of Food Composition and Analysis, (19), S4–S6.
Desarrollo de nitróxidos cíclicos de seis miembros Claudia Cecilia Rivera Vallejo Catalina Pérez Berumén Odilia Pérez Camacho Jorge Félix Espinosa Muñoz El primer estudio que demostró la viabilidad de las NMRP fue realizado con estireno y TEMPO como nitróxido. Sin embargo rápidamente se observó que éste último está solamente limitado al estireno y sus derivados. Además, se requieren altas temperaturas de polimerización (125-145°C), tiempos de reacción largos (24-72 h) y existe una incompatibilidad con muchas de las más importantes familias de monómeros.
P
ara superar estas deficiencias se fueron realizando cambios en la estructura de los nitróxidos, en esta revisión bibliográfica se presentan los cambios que han presentado los nitróxidos cíclicos con anillos de seis miembros.
Nitróxidos cíclicos de seis miembros Para ampliar la gama de NO´s como agentes de control de las NMRP, se diseñaron NO´s con estructuras similares al TEMPO. Por lo que los TEMPO´s funcionalizados en la posición para, tales como el N2-N4, fueron usados para mantener la misma reactividad que tiene el TEMPO pero con la introducción de un grupo reactivo, capaz de preparar arquitecturas macromoleculares más complejas (N2a-g) o para inducir la solubilidad en agua, N3. En la tabla 1 se presentan algunas estructuras de NO´s cíclicos con anillos de seis miembros usados en NMRP. La primera estructura que permitió ampliar la gama de monómeros fue el 4-oxoTEMPO (N4). El grupo de Georges demostró que los acrilatos pueden ser polimerizados a 145-155°C de una manera pseudocontrolada puesto que los índices Ð eran aún bastante elevados (Mw/Mn = 1.60-1.67) y el carácter viviente de la polimerización no era totalmente demostrado. Matyjaszewski y colaboradores desarrollaron el NO (N5), el cual está sustituido en la posición cuatro con un grupo fosfónico . Un enlace de hidrógeno intramolecular entre el grupo aminoxilo y el grupo fosfónico indujo extra-estabilidad y luego aumentó significativamente la velocidad de polimerización del estireno. Sin embargo se hizo rápidamente evidente que el principal problema del TEMPO, es el valor de la constante de velocidad de Correo para correspondencia:
[email protected]
disociación, Kd, de la correspondiente alcoxiamina, Moad y Rizzardo mostraron que la velocidad de homólisis de la alcoxiamina está gobernada por una combinación de factores electrónicos, polares y estéricos, siendo este último factor el que predomina. Muchas variaciones en la naturaleza de los grupos alquilos unidos al átomo de carbono en la posición a a la función aminoxilo fueron investigados. factores electrónicos, polares y estéricos, siendo este último factor el que predomina. Muchas variaciones en la naturaleza de los grupos alquilos unidos al átomo de carbono en la posición a la función aminoxilo fueron investigados. Por ejemplo, Miura y colaboradores desarrollaron varios nitróxidos cíclicos de seis miembros con estructuras espiro (N19-N25) que podría ser tanto mono como disustituido (N22) . El aumento del impedimento estérico debido a la estructura espiro aumentó la constante de velocidad de disociación de las macroalcoxiaminas y permitió realizar con éxito la NMRP del estireno a 70°C y del N-butilacrilato utilizando el NO´s (N22) . El N25 se desarrolló como un NO´s análogo al N22, pero el N25 es soluble en agua y se aplicó a la polimerización controlada de 4estireno sulfonato de sodio en agua . La sustitución de los grupos metilos en las posiciones dos y seis por sus homólogos etílicos (N16-N18) , llevó a un aumento importante en la velocidad de polimerización y a una mejora significativa en el control. No obstante los mejores resultados se obtuvieron con el NO´s tetraetil-sustituido N18. Sin embargo se encontró que su análogo hidroxi, N17, era menos estable y por lo tanto menos eficaz.El mismo grupo también desarrolló derivados de TEMPO, donde la mitad de los grupos metilos en las posiciones dos y seis fueron reemplazados por hidroximetilos y siloxilmetilos .
Para aumentar aún más el impedimento estérico alrededor del átomo de oxígeno de la alcoxiamina, los dos grupos restantes fueron sustituidos con grupos etilos que son más voluminosos (N8-N9 y N11-N12). Se ha demostrado que las polimerizaciones de estireno utilizando derivados de TEMPO hidroxisustituidos fueron muy rápidas pero no controlaron muy bien debido a la alta inestabilidad de estos novedosos agentes de control. La sustitución del grupo hidroxilo por el grupo siloxilo, el cual es un grupo muy impedido, aumentó la estabilidad, y el nitróxido formó la correspondiente alcoxiamina las cuales son excelentes iniciadores/mediadores de la polimerización de estireno incluso a bajas temperaturas (90105°C). Además se logró obtener poli (n-butilacrilatos) bien controlados con Ð bajas y preparados en el mismo rango de temperatura. También se demostró que la separación de los compuestos cis y trans no era necesario puesto que los NO´s N11 y N12 dieron resultados similares en la polimerización. Siegenthaler y Studer propusieron NO´s con las estructuras N13 y N14 que exhibían un efecto estérico fuerte comparado con el N12, lo que lleva a un cambio marcado en el control de la polimerización . Considerando que se lograron polimerizaciones controladas del estireno usando bajas temperaturas (70°C) usando el nitróxido N13, se preparó un nitróxido similar a N13 pero más impedido N14, el cual condujo a polimerizaciones rápidas pero descontroladas. La posición de los sustituyentes en el anillo también ha sido investigada por Fischer y colaboradores, ellos prepararon el nitróxido N6 y se observó un aumento de cinco veces el valor de Kd, en comparación con la estructura del nitróxido N2a. También explicaron que esto es el resultado de disminuir el número de conformaciones que tienen que ser “congeladas” en el estado de transición.
(1) M. Georges, R. Veregin, P. Kazmaier y G. Hamer, « Narrow molecular weight resins by a free-radical polymerization process.,» Macromolecules , vol. 26, pp. 2987-2988, 1993.
Recientemente Bottle y colaboradores probaron el nitróxido 1,1,3,3-tetrametil-2,3-dihidro-2-azafenalen-2-iloxil (TMAO, N28) en la NMRP del estireno. Este nitróxido fue previamente diseñado para el control de la degradación del polipropileno (PP), ya que el nitróxido se vuelve fluorescente cuando los radicales alquilo son atrapados, debido a la existencia de una parte que es naftaleno. El control de la polimerización es similar al obtenido con TEMPO y el polímero resultante presentó una fuerte señal de fluorescencia.
Facultad de Ciencias Químicas UAdeC
(2) N. Listigovers, M. Georges, P. Odell y B. Keoshkerian, «Narrowpolydispersity diblock and triblock copolymers of alkyl acrylates by a “living” stable free radical polymerization.,» Macromolecules, vol. 29, nº 27, pp. 8992-8993, 1996. (3) C. J. Hawker, K. editado por Matyjaszewski y T. P. Davis, «NitroxideMediated Living Radical Polymerizations,» de Handbook of radical Polymerization, United States of America, John Wiley & Sons, Inc., 2003, pp. 463-520. (4) G. Moad y E. Rizzardo, «Alkoxyamine-initiated living radical polymerization: factors affecting alkoxyamine homolysis rates.,» Macromolecules, vol. 28, nº 26, pp. 8722-8728, 1995. (5) A. Mannan, A. Ichikawa y Y. Miura, « Living radical polymerization of styrene mediated by a piperidinyl-N-oxyl radical having very bulky substituents.,» Polymer 2007, vol. 48, pp. 743-749, 2007. (6) Y. Miura, N. Nakamura, I. Taniguchi y A. Ichikawa, «Radical polymerization of butyl acrylate and random copolymerization of styrene and butyl acrylate and styrene and methyl methacrylate mediated by monospiro- and dispiropiperidinyl-N-oxyl radicals.,» Polymer, vol. 44, pp. 3461-3467, 2003. (7) J. Nicolas, Y. Guillaneuf, C. Lefay, D. Bertin, D. Gigmes y B. Charleux, «Nitroxide-mediated polymerization,» Progress in Polymer Science, 2012. (8) C. Wetter, J. Gierlich, C. Knoop, C. Muller, T. Schulte y A. Studer, «Steric and electronic effects in cyclic alkoxyamines—synthesis and applications as regulators for controlled/living radical polymerization,» Chemistry: A European Journal , vol. 10, pp. 1156-1166, 2004. (9) K. Siegenthaler y A. Studer, «Nitroxide-mediated radical polymerization/ increase of steric demand in nitroxides. How much is too much?,» Macromolecules, vol. 39, nº 4, pp. 1347-1352, 2006. (10) H. Fischer, A. Kramer, S. Marque y P. Nesvadba, «Steric and polar effects of the cyclic nitroxyl fragment on the C-ON bond homolysis rate constant.,» Macromolecules, vol. 38, pp. 9974-9984, 2005. (11) J. Colwell, J. Blinco, C. Hulbert, K. Fairfull-Smith y S. Bottle, «A profluorescent azaphenalene nitroxide for nitroxide-mediated polymerization.,» Australian Journal of Chemistry , vol. 64, pp. 426-462, 2011.
Microextracción líquido-líquido dispersiva Arely Monserrat López Martínez Iliana M. de la Garza Rodríguez Edith M. Colunga Urbina Miguel Velázquez Manzanares Judith Amador-Hernández
LA EVOLUCIÓN DE UNA TÉCNICA CENTENARIA
En Química Analítica, el término extracción se refiere al proceso de trasferir selectivamente una especie química de una fase a otra. La extracción líquido-líquido implica el uso de dos fases líquidas inmiscibles, donde una de ellas es generalmente agua; se utiliza desde hace décadas en los laboratorios, debido a que es una técnica muy versátil y eficiente a pesar de su simplicidad y costo bajo.
e usa con dos fines fundamentales: a) para preconcentrar o llevar a la sustancia de interés de una concentración menor a una mayor, para facilitar su cuantificación; o bien, b) para eliminar impurezas de la muestra que pudiesen interferir en la determinación. Sin embargo, en los últimos años se ha reconocido la necesidad de que esta técnica evolucione hacia la reducción de los volúmenes de trabajo requeridos, los cuales tradicionalmente pueden variar entre los 10 y 50 mL [1].
S
Principio La microextracción líquido-líquido dispersiva (DLLME, por sus siglas en inglés) se basa en la mezcla de la muestra (generalmente acuosa) con una pequeña cantidad de disolvente de extracción y de disolvente dispersor. Éste debe ser miscible con la muestra y la fase extractante, ya que su función es aumentar la superficie de contacto entre ambos medios y así favorecer la transferencia del analito o especie química de interés de una fase a otra, en menor tiempo. Una vez que se consigue la separación de fases, normalmente por centrifugación, el extractante se recupera y se lleva a un instrumento analítico para la cuantificación (véase figura 1). La técnica sólo es aplicable para analitos orgánicos con coeficientes de partición altos (Kow > 500), es decir, de naturaleza altamente hidrofóbica [2, 3]. Parámetros que afectan la eficiencia de la extracción en DLLME 2.1 Disolvente de extracción Debe tener las siguientes características: a) mayor densidad que el agua, para facilitar su separación por centrifugación en tubos cónicos; b) baja solubilidad en agua, y Correo para correspondencia:
[email protected]
viceversa; c) gran solubilidad del analito en él, para favorecer un coeficiente de partición alto; d) comportamiento cromatográfico satisfactorio, entre otros. Comúnmente, los hidrocarburos halogenados, tales
como el clorobenceno, cloroformo o tetracloruro de carbono suelen ser seleccionados como disolventes de extracción debido a su alta densidad.
Figura 1. Etapas en DLLME: a) adición del disolvente extractante y dispersor a la muestra; b) mezclado de fases; c) separación (generalmente por centrifugación); d) recuperación de la fase extractante para su análisis.
También existen aplicaciones en las que se utilizan disolventes de menor densidad que el agua [4], aunque en tal caso la etapa de recuperación es más compleja, siendo necesario recurrir a estrategias como la solidificación de las gotas orgánicas flotantes [5] o la adsorción por nanopartículas [6]. Por otro lado, el volumen de este disolvente está entre los 5 y 100 µL (de ahí el nombre de microextracción), con el fin de que garantice un factor de enriquecimiento alto además de que debe ser suficiente para su análisis después de la centrifugación. Se entiende por factor de enriquecimiento al incremento en la concentración del analito por la reducción del volumen en el que queda éste, respecto al volumen de la muestra original. 2.2 Disolvente dispersor Debe ser miscible con el agua para permitir la dispersión del extractante en la fase acuosa como partículas finas y formar, una disolución turbia (agua/dispersor/disolvente de extracción). Para tales fines se utiliza comúnmente metanol, etanol, acetonitrilo, acetona o tetrahidrofurano.
2.4 Tiempo de extracción Es el intervalo de tiempo que transcurre entre la inyección de la mezcla de disolventes y la centrifugación. En general es corto, debido a que el disolvente de extracción se dispersa fácilmente en condiciones experimentales adecuadas (formando una disolución turbia), provocando la transferencia rápida del analito de la fase acuosa a la extractante por alcanzarse el estado de equilibrio correspondiente [7]. Esta es una ventaja notable de DLLME frente a otras técnicas de separación en la que se involucran micro-volúmenes del extractante, como son la extracción por surfactantes en fase coacervada [8] o la extracción por membranas líquidas soportadas [9], ya que en estas últimas los tiempos de preconcentración pueden variar desde 20 minutos hasta horas. Aplicación de DLLME Como técnica preparativa, DLLME se utiliza tanto con técnicas cromatográficas y sus múltiples detectores para la determinación de compuestos orgánicos, así como con técnicas atómicas de absorción o emisión para la cuantificación de elementos, especialmente metales pesados (véase figura 2) [10].
Figura 2. Combinación de DLLME con diversas técnicas de instrumentación analítica.
Así, por su gran versatilidad DLLME se ha aplicado en la determinación de compuestos muy diversos como son plaguicidas, hidrocarburos policíclicos aromáticos, parabenos, fármacos, clorofenoles, disruptores endócrinos, ácidos grasos, etc. A nivel de elementos, se han desarrollado métodos tanto para su cuantificación total como para su especiación. Ventajas de DLLME Destacan la simplicidad de su operación, rapidez, bajo costo, eficiencia en la recuperación de analitos, alto factor de preconcentración y bajo impacto en el ambiente. En general, DLLME y LLE son técnicas que exhiben una eficiencia y factor de preconcentración similares, ya que en DLLME se reducen simultáneamente el volumen de extractante y de muestra, pudiendo quedar esta relación constante en ambas técnicas. Si bien la reproducibilidad pudiese ser un factor en contra, esto puede superarse con el uso de estándar interno. Por lo tanto, DLLME es competitiva con otras técnicas de enriquecimiento como la extracción en fase sólida (SPE, por sus siglas en inglés), la microextracción en fase sólida (SPME, por sus siglas en inglés), CPE o SLM. La evolución esperada de DLLME DLLME se ha aplicado principalmente al análisis de las matrices simples, principalmente agua y raramente orina, mientras que su eficacia es más limitada en
matrices complejas (por ejemplo, las muestras biológicas) [11]. Sin embargo, la combinación de esta técnica con otras estrategias en el tratamiento de muestra como la extracción en fase sólida dispersiva (DSPE, por sus siglas en inglés) puede extender sus aplicaciones al análisis de matrices más complejas. Esta y otras combinaciones incrementan la calidad del proceso analítico, ya que DLLME se centra en la sensibilidad y la técnica complementaria en la selectividad. Sin embargo, las aplicaciones de DLLME son todavía limitadas en el análisis de especies inorgánicas, por lo que se requiere mayor investi-gación en este ámbito para eliminar interferencias en menos tiempo y a bajo costo. Otra tendencia de gran interés es la automatización de la técnica a través de la inyección en flujo o la inyección secuencial [12], lo que no ha sido posible a la fecha con LLE. DLLME en la química analítica verde
En la química analítica verde, se busca reducir el impacto ambiental del trabajo analítico a través de estrategias como la reducción de volúmenes de disolventes (especialmente organoclorados), así como la utilización de sustancias menos tóxicas. Dada la gran versatilidad de DLLME, existe un interés creciente en desarrollar esta técnica sustitu-yendo los disolventes organoclorados (carcinogénicos, mutagénicos) por disolventes menos tóxicos como alcoholes o líquidos iónicos, promoviendo así su empleo desde una perspectiva sustentable.
(1) Rydberg J., Cox M., Musikas C., Choppin G.R. (eds.). Solvent Extraction and Practice, second edition, New York, Marcel Dekker (2004).
aromatic hydrocarbons in environmental water samples”, Anal. Chem., 82 2010 1540–1545.
(2) Shaikh I.A.S., Panchal C.V., Munde J.A., Poul B.N. “Development and applications of liquid-phase microextraction for analysis of organic compounds in environmental samples: a review”, World J Pharmaceut Res, 4 2015 443-461.
(8) Amador-Hernández J., Velázquez-Manzanares M., Enríquez-Rosado R, Altamirano-Perez S.C. “Determination of lead at trace level through cloud point extraction and atomic absorption spectrometry with electrothermal atomization: an environmentally benign methodology”, Anal. Lett., 46 2013 2421-2429.
(3) Berijani S., Assadi Y., Anbia M., Milani Hosseini M.R, Aghaee E. “Disper sive liquid–liquid microextraction combined with gas chromatography-flame photometric detection: very simple, rapid and sensitive method for the determination of organophosphorus pesticides in water”, J. Chromatogr. A, 1123 2006 1–9. (4) Kocúrová L., Balogh I.S., Šandrejová J., Andruch V. “Recent advances in dispersive liquid–liquid microextraction using organic solvents lighter than water. A review”, Microchem. J., 102 2012 11-17.
(9) Amador-Hernández J., Velázquez-Manzanares M., Enríquez-Rosado R., Cisneros-Cisneros C. “Improved preconcentration of triazines from aqueous samples in supported liquid membrane with electric field”, Res. J. Chem. Sci., 2 2012 46-52. (10) Kokosa J.M. “Advances in solvent-microextraction techniques”, TrAC Trends Anal. Chem., 43 2013 2-13.
(5) Liang P., Xu J., Li Q. “Application of dispersive liquid–liquid microextraction and high-performance liquid chromatography for the determination of three phthalate esters in water samples”, Anal. Chim. Acta, 609 2008 53–58.
(11) Farajzadeh M., Khorram P., Ghorbanpour H. “Simultaneous derivatization and solid-based disperser liquid–liquid microextraction for extraction and preconcentration of some antidepressants and an antiarrhythmic agent in urine and plasma samples followed by GC-FID”, J. Chromatogr. B, 983–984 2015 55-61.
(6) Bendicho C., Costas-Mora I., Romero V., Lavilla I. “Nanoparticleenhanced liquid-phase microextraction”. TrAC Trends Anal. Chem., 68 2015 78-87.
(12) F. Maya, B. Horstkotte, J.M. Estela, V. Cerdà. “Automated in-syringe dispersive liquid-liquid microextraction”, TrAC Trends Anal. Chem., 59 2014 1-8.
(7) Shi Z., Lee H.K. “Dispersive liquid liquid microextraction coupled with dispersive μ-solid-phase extraction for the fast determination of polycyclic
Facultad de Ciencias Químicas UAdeC
La desigualdad es asunto nuevo Un estudio revela que las tribus prehistóricas de cazadores y recolectores operaban sobre una base social igualitara, y que fue la aparición de la agricultura lo que desencadenó la desigualdad entre hombres y mujeres. Esta investigación de la College University de Londres, publicada en la revista Science, está basado en datos genealógicos de tribus prehistóricas del Congo y de Filipinas. Los resultados cambian la visión de que la igualdad sea un concepto relativamente nuevo, al considerar que ésta ha prevalecido como norma humana en un largo periodo de nuestra evolución y establece que la posibilidad de acumular bienes, gracias a la agricultura, fue lo que desencadenó la
desigualdad entre géneros. Asimismo, revelan que en las sociedades en las cuales las decisiones quedaban en manos de hombres y mujeres, se construían grupos mucho más amplios y existían más relaciones intergrupales que en las sociedades dirigidas únicamente por hombres. Una de las principales autoras, Andrea Migliano, dijo: “La igualdad entre géneros sugiere un escenario en el que rasgos humanos únicos como la cooperación con individuos no emparentados podrían haberse dado con mayor celeridad en nuestro pasado evolutivo”.
VIVIENDA ECOLÓGICA PARA LA
ZONA SEMIDESÉRTICA
DE GENERAL CEPEDA COAHUILA
José de Jesús Hernández Melchor Víctor Raúl Ruíz García Debido a los cambios bruscos de temperatura que se han dejado sentir en los últimos años en el ejido, en verano las temperaturas han alcanzado 42º centígrados y en invierno la temperatura mínima registrada es de -20º centígrados, comenta en entrevista el señor Gerónimo Ramírez, poblador del Valle de Narigua.
Introducción a sequía se ha dejado sentir durante los últimos 15 años, aunque debido a los pozos de extracción de agua no han batallado para el uso doméstico, pero el caudal del agua ya empieza a disminuir. Aunado a esto no tenemos el suficiente tienen suficiente líquido para la siembra y cosecha de diferentes granos como: maíz, frijol, trigo, avena, sorgo y escoba. Baena, González y Núñez1 explican que la explotación irracional de los recursos naturales y el excesivo uso de los combustibles derivados del petróleo en las últimas décadas han provocado un enorme deterioro del medio ambiente, y por consecuencia, muchos problemas ambientales que amenazan la existencia de los seres vivos de este planeta. El cambio climático, el adelgazamiento de la capa de ozono, la pérdida de la biodiversidad, la deforestación, la erosión del suelo, la contaminación y la escasez del agua, el exceso de basura y el inminente agotamiento de los recursos naturales, hace necesario el considerar alternativas sustentables que reconcilien al hombre con la naturaleza y que permitan continuar con el nivel de vida y confort de la población actual ya que no somos sólo espectadores sino actores que compartimos el escenario con todos los demás participantes como lo dijera Kevin Lynch en su libro Imagen de la Ciudad. Por ello, el diseño de las nuevas tecnologías se ha inclinado por el uso de energías alternativas que contribuyan al cuidado del medio ambiente, que sean redituables a un corto o mediano plazo con capacidad de satisfacer los requerimientos de energía tanto para uso doméstico como industrial.
L
1 Baena, González y Núñez. Diseño de los sistemas eléctricos e hidráulicos para el desarrollo de una causa autosuficiente en el Estado de Querétaro. 2010.
Correo para correspondencia:
[email protected]
El caso que ocupa esta investigación pretende diseñar e implementar los sistemas y dispositivos necesarios para satisfacer las necesidades de energía eléctrica, agua y climatización, por medio de tecnologías no contaminantes, así como analizar la factibilidad de estos en una casa habitación de cinco personas ubicada en el ejido Narigua, municipio de General Cepeda Coahuila. De acuerdo al componente espacial geográfico, Narigua se ubica a 15 kilómetros al noroeste del municipio de General Cepeda, es un valle en el cual se localizan cientos de petroglifos tallados por las tribus que habitaron esta zona (ver figuras 1 y 2).
Figura 1. Valle de Narigua.
Según la información obtenida de la Secretaría de Turismo (2012) y en las visitas que se han hecho al lugar, la vegetación que predomina en el valle de Narigua es propia de la región semidesértica y del clima, entre algunas plantas figuran la gobernadora, las lechuguillas, la palma china y una gran diversidad de cactáceas, las cuales son admiradas por los visitantes de este sorprendente lugar. Las viviendas de Narigua en su mayoría son de adobe con techos de diferentes materiales como: albarda, carrizo, mezquite y tableta de madera. Los acabados exteriores de las viviendas son, en su mayoría, rústicos, a base de arena de arroyo preparados con cal y agua, en algunas viviendas los acabados son recubrimientos de cemento, arena, cal y agua. Para el interior de la vivienda los enjarres son de barro mezclados con agua y cal dando un acabado liso. La ventaja que ofrecen estos materiales es que la mayoría de la materia prima se puede encontrar en el ejido, además de ser materiales ecológicos ya que cuando cumplen su ciclo de vida se reintegran a la naturaleza sin alterar el medio ambiente.
No hay que olvidar que el deterioro de las viviendas más que nada se debe al abandono de que son objeto y no a la mala calidad de los materiales de la llamada arquitectura de tierra. El proyecto para el ejido Narigua entra en la rama ecológica, cabe destacar que de acuerdo a García2, entre los principios de la arquitectura ecológica, se incluyen: 1. La consideración de los componentes climáticos, la hidrografía y los ecosistemas y componentes del entorno en que se construyen los edificios, para obtener el máximo rendimiento con el menor impacto. 2. La eficiencia y moderación en el uso de materiales de construcción, privilegiando los de alto contenido ecológico frente a los de bajo contenido. 3. La reducción del consumo de energía para climatización, calefacción, refrigeración, iluminación y otros equipamientos, cubriendo el resto de la demanda con fuentes de energía renovables, abarcando las fases de diseño, construcción, utilización y terminación de su vida útil; así como el cumplimiento de los requisitos de confort térmico, sanitario, de iluminación y habitabilidad de las edificaciones. Casas sostenibles De acuerdo a Caso3 las casas sostenibles o ecológicas son aquellas que logran condiciones óptimas de habitabilidad con el mínimo consumo energético, teniendo en cuenta la orientación de la construcción, el terreno y la naturaleza que lo rodea. Deben ser autosuficientes y autorreguladas, con un mantenimiento barato y no depender de fuentes no locales de energía (electricidad, gas, carbón o leña). El concepto de desarrollo sustentable se basa en tres principios: 1. El análisis de los materiales y de su ciclo de vida. 2. El desarrollo del uso de energías renovables y sus materias primas. 3. La reducción de las cantidades de materiales y energía utilizados en la extracción de recursos naturales, su explotación y la destrucción o el reciclaje de los residuos. Entre estas estrategias de diseño sustentable se deben tomar en cuenta todos los componentes espaciales que integran la calefacción solar activa y 2 García. Taller de Desarrollo Sustentable. 2006. 3 Deffis, Caso, A. La casa ecológica autosificiente: para climas cálidos y tropicales. México. 1992.
calentamiento solar de agua activo o pasivo, la generación eléctrica solar, la acumulación freática o la calefacción geotérmica, y más recientemente la incorporación en los edificios de generadores eólicos. Adicionalmente a esto tenemos la correcta orientación del edificio respecto a los puntos de sol y sombra, los muros térmicos, las azoteas verdes (con vegetación), así como el manejo de residuos que deben proceder mayoritariamente de fuentes naturales gratuitas, como captación y reutilización del agua de lluvia, ahorro de recursos; y al ser construidas con materiales no tóxicos se integran perfectamente en el medio ambiente, sin perjuicios, además de usar energías limpias y tener cero emisiones; sin olvidar la integración paisajística de la casa. Igualmente debe ser una vivienda cómoda y bella, con calidad y en armonía con el componente del entorno vivo de acuerdo a los principios de la arquitectura ecológica. García2 dice que debido al problema del calentamiento global se ha creado conciencia en diseñadores ambientalistas e investigadores, tanto, que hoy en día proponen materiales alternos para la edificación de viviendas que ayuden a mantener el equilibrio ecológico. Construcción sustentable o ecológica no significa edificar casas de madera ni usar materiales reciclados o reciclables, sino ofrecer una propuesta integral, que favorezca el equilibrio ecológico, la responsabilidad social y la eficiencia económica para brindar una mejor calidad de vida a los futuros habitantes. En México construir sustentablemente aún es novedad e implica costos elevados. Sin tomar en cuenta que tenemos en la arquitectura mexicana colonial, la mejor arquitectura sustentable; por ejemplo, en las casas de la época colonial donde se manejaba el
esquema de patio central que permitía la ventilación cruzada, habitaciones altas con anchos muros (generalmente de adobe), como aislantes térmicos e incluso la captación de agua de lluvia en aljibes para darle usos domésticos. Materiales y métodos Se busca proponer un diseño que permita resolver de forma bioclimática temas funcionales, constructivos y estéticos de la vivienda ecológica, las fuentes documentales son formales (bibliografía, medio grafía, trabajo de campo) e informales (experiencia profesional, observación y entrevistas), lo que permite presumir resultados confiables y tener la seguridad de que la solución sea adecuada. Para ello se analizará el proyecto arquitectónico de una vivienda ecológica, tomando como base sus lineamientos de diseño para una vivienda prototipo y partiendo de aquí, ubicar una realidad y proponer nuevas estrategias básicas para definir un nuevo proyecto arquitectónico teniendo un parámetro de referencia con cierta normatividad arquitectónica y constructiva que facilite la evaluación de la propuesta. Discusión La problemática que enfrentan en el ejido Narigua es que muy seguido se va la luz debido a que se botan constantemente las cuchillas de la corriente eléctrica a las cuales la Comisión Federal es la única que tiene acceso y poder para arreglar dicho desperfecto, a veces tardan hasta doce horas en restaurar el servicio, esto provoca que no funcione la bomba de agua para llenar los depósitos comunales de los cuales posteriormente
Figura 2. Petroglifos de Narihua.
se distribuye el vital líquido a las viviendas (entrevista con un poblador que prefiere el anonimato). Aunado a esto los cambios bruscos de temperatura que se dan de manera natural debido a que el ejido se ubica en zona semidesértica en donde las temperaturas son extremas de hasta 42º centígrados máxima, debido a esto los pobladores tienen que hacer uso de ventiladores y otros sistemas de enfriamiento que les brinden confort en sus viviendas; con el uso de estos aparatos aumenta el consumo de energía y por lo tanto afecta su económía, en invierno se han registrado temperaturas mínimas de hasta -20 grados centígrados aunque en la mayoría de las casas tienen chimeneas éstas se usan para cocinar pero al estar en sus recá-maras o áreas de descanso recurren al uso de calentadores que consumen energía eléctrica o gas. Resultados Diseñar e implementar los sistemas y dispositivos necesarios para satisfacer las necesidades de energía eléctrica, agua y climatización, por medio de tecnologías no contaminantes, así como observar la factibilidad de estos en una casa habitación de cinco personas ubicada en el ejido Narigua, municipio de General Cepeda Coahuila. 1.Evaluar la disponibilidad de recursos energéticos renovables de la zona para escoger los materiales que puedan ser útiles para la elaboración de una vivienda ecológica. 2.Evaluar las tecnologías y medidas que puedan ser de mayor utilidad para el ahorro de energía y escoger las apropiadas para ser implementadas para las condiciones propias de una vivienda ecológica. 3. Aplicar el diseño bioclimático para mantener una temperatura confortable de entre 18 y 22 grados centígrados durante todo el año en el interior de una vivienda ecológica. 4. Observar que las instalaciones hidráulicas y eléctricas diseñadas para una vivienda eclógica son las adecuadas, así como la evaluación del sistema fotovoltaico, escogido para alimentar de energía eléctrica a la vivienda ecológica que sea eficiente y capaz de crear la energía necesaria para un equipo de bombeo de agua que sirva para el suministro de la vivienda. Conclusiones El potencial técnico y económico de las tecnologías implementadas en la casa es muy amplio, sin embargo existen influencias geográficas que no permiten seleccionar los mismos sistemas para cualquier ubicación.
Para la ubicación exacta de la casa se considera que el sistema fotovoltaico y de captación pluvial propuestos, son económicamente viables y capaces de brindar la demanda energética requerida. La correcta orientación y aislamiento de una vivienda brinda una temperatura confortable sin la necesidad de implementar sistemas de aire acondicionado. El colector solar plano es un sustituto efectivo para el calentamiento de agua en una casa habitación, además representa una solución ecológica y económicamente viable, debido a la contaminación, escasez y alza de precios del gas. Los sistemas de generación de energía eléctrica y de captación pluvial implementados en la casa, permiten disponer de una mayor independencia energética con respecto a las compañías de electricidad y agua potable. El sistema de captación de agua pluvial permite contar con agua potable en zonas donde no se cuente con el servicio, ayudando también a combatir el agotamiento y escasez de agua. Una vivienda en armonía con el medio ambiente brinda beneficios económicos y de confort al usuario, y además ayuda a conservar el medio ambiente.
Facultad de Arquitectura Unidad Saltillo, UAdeC
Deffis Caso, A. La casa ecológica autosuficiente: para climas cálido y tropical. México, D.F. 1992. Editorial Concepto. Lima. Guía de diseño para captación de agua de lluvia. Centro Panamericano de Ingeniería Sanitaria y Ciencias del Ambiente. Organización Panamericana de la Salud . Lima 2001 Perales Benito, T. (Guía del instalador de energías renovables: Energía fotovoltaica, energía térmica, energía eólica, climatización. México, D.F. 2007. Editorial Limusa. Tonda Juan. El oro solar y otras fuentes de energía. Editorial FCE, 3era edición. México 2003 García, Taller de Desarrollo Sustentable, México 2006
CONCEPTO DE LAS NUEVAS TECNOLOGÍAS PARA LA EDUCACIÓN A DISTANCIA
Celia Blanca Ballesteros Quintero La intención de este planteamiento es ofrecer una alternativa metodológica, complementaria a la tradicional, basada en las nuevas tecnologías que permiten en un nuevo escenario ofrecer formación a los estudiantes que no pueden asistir regularmente a clases, por cuestiones laborales, o por la distancia, discapacidad o edad, entre otros factores.
a que la educación a distancia aumenta gradualmente es aconsejable tener en cuenta la incorporación de las nuevas tecnologías educativas, como un conjunto que permitirá modificar los esquemas actuales de los medios alternativos de aprendizaje; en donde el estudiante pasará del ambiente de aprendizaje tradicional a otro en el que el conocimiento se construye a través de la aparición de nuevos elementos, como los medios de comunicación, así, se presenta como una alternativa de formación de calidad y excelencia para los estudiantes a través de un aprendizaje significativo basado en competencias. Lo anterior aporta una mejor educación a través de un nuevo enfoque metodológico al incorporar la tecnología educativa y al usar diferentes recursos didácticos en tiempo real e interactivo entre profesores y alumnos por medio de la aplicación del Polymethod, Polytechnic y Polyscience a la resolución de la problemática de la educación a distancia. Los aspectos teóricos modernos de todo el concepto de educación a distancia han sido visualizados por diferentes autores; Gates (1999) considera que la educación virtual, como la educación a distancia, utiliza la tecnología como medio de conexión entre el maestro y el estudiante; García, Valcárcel, Muñoz y Repiso consideran que la tecnología educativa es la forma sistemática de concebir, aplicar y evaluar el conjunto de procesos de enseñanza-aprendizaje, teniendo en cuenta al mismo tiempo los recursos técnicos y humanos y las interacciones entre ellos como forma de obtener una educación más eficaz. En la actualidad, los mapas conceptuales con sus ligas y (imágenes, vídeo, texto, páginas Web), son también accesibles como las páginas HTML, y permiten que la educación a distancia tenga un aprendizaje significativo basado en competencias. Una extensión de este conocimiento ha sido desarrollado por diferentes investigadores, ya que existen diferentes programas mundiales de ciencias de la computación, considerando las
Y
Correo para correspondencia:
[email protected]
nuevas tecnologías y educación, ejemplo de ellos es World Link de aprendizaje, con el apoyo del Instituto del Banco Mundial, en el cual profesores y estudiantes se comunican para programas de investigación, educa-ción y aprendizaje en las escuelas de nivel secundaria; otro de ellos es Globe que es un programa ambiental de carácter muy práctico de la ciencia y la educación el cual permite a los profesores, estudiantes y científicos el estudio del medio ambiente de nuestro planeta. Cepeda Dovala menciona que en ciencias de la computación en un universo de la ciencia (Polyscience), método (Polymethod) y técnica (Polytechnic), la tecnología es el producto de enlace de la intersección entre la ciencia y la técnica y es de esta manera que las nuevas tecnologías permiten una colaboración para la resolución de problemas como los desiertos del mundo y mejora del medio ambiente con el conocimiento significativo del fenómeno de interacción genérica del medio ambiente a través de la educación sostenible y competente. Si consideramos a los ordenadores parte de la tecnología y la comunicación por ser una verdadera
Fig 1. Nueva Aplicación Metodológica: la Polyscience, Polymethod y Polytechnic de Ciencias de la Computación y Educación a Distancia.
herramienta para los científicos y técnicos, debemos considerar que el conocimiento de los equipos comprendidos por el binomio de la interacción entre el hardware y el software no es únicamente un instrumento importante, también es un conocimiento científico, contenidos en la palabra tecnología, desde un punto de vista metodológico, la triple interacción ya descrita por Capeda Dovala en el Polymethod, Polytechnic y Polyscience representa una nueva aplicación en ciencias de la computación (figura 1). En la figura 1 se pueden apreciar las diferentes intersecciones que tienen como resultado del centro d = {A∩B∩C} = nuevas tecnologías educativas, en donde la educación obtendrá un aprendizaje realmente competitivo y significativo.
¿Qué significa esta nueva propuesta metodológica ? Permite describir, distinguir y descubrir nuevos conocimientos dentro de las dimensiones del universo de las ciencias de la computación en la educación a distancia, en donde el universo es la unidad de los conjuntos A, B y C, es decir, U = {A∩B∩C}, y la intersección de las ciencias (Polyscience), de técnicas (Polytechnic) y métodos (Polymethod), es decir, d = {A∩B∩C}, muestra la importante operatividad de educación a distancia con un aprendizaje significativo basado en competencias; detrás de las nuevas tecnologías educativas: a) Permiten al estudiante aproximarse al objetivo al que desea llegar y aprender poco a poco a adquirir con mayor exactitud y precisión los hechos o fenómenos que estudia; b) Facilitan la percepción y comprensión científica y tecnológica de los diferentes conceptos y procedimientos; c) Ilustran el uso de los mapas conceptuales y facilitan la exposición verbal; y, d) Permiten la comunicación y la optimización de recursos para que las actitudes y habilidades de carácter específico se manifiesten totalmente, fomentando la cultura del método de la observación. Porqué utilizar las nuevas tecnologías en la educación a distancia Debido la necesidad de estar preparados y actualizados para convivir en un mundo que sufre degradación ambiental y con una economía mundial globalizada cuyas características son alta velocidad, competitividad, impulso por el conocimiento, y en donde se requiere una fuerza creativa de la obra de alta calidad y excelencia, capaz de adaptarse a las nuevas necesidades de los conocimientos y habilidades ante las innovaciones metodológicas, científicas y tecnológicas en materia de telecomunicaciones e informática que están transformando los mecanismos de producción y distribución económica, la sociedad requiere de óptimos niveles de conocimiento. ¿Cuáles son las nuevas tecnologías para la educación a distancia? Son un conjunto moderno de herramientas, soportes de procedimientos, canales y métodos innovadores para profesores y estudiantes que permiten el acceso a la información y formación educativa y cultural
enfocadas en la superación académica y el desarrollo de las competiciones con un aprendizaje significativo. Los recursos didácticos, herramientas informáticas, soportes y canales como PC y redes eficaces para el desarrollo de las nuevas competencias educativas requieren: internet y correo electrónico, aplicaciones educativas como enciclopedias, diccionarios; aplicaciones informáticas como el procesador de texto y presentador de diapositivas, hojas de cálculo, base de datos, diseñador de páginas web, entre otras. ¿Cómo apoyan las nuevas tecnologías educativas al estudiante ? El soporte está hecho con tres funciones: motivación, adquisición y evaluación; lo que permite facilitar la construcción y dominio del conocimiento (figura 2) como aptitudes, actitudes y contenidos en cuatro situaciones: a) para hacer nuevas presentaciones, variadas y de una manera ágil y atractivas de (páginas web); b) utilizar la diversidad de recursos didácticos, como imágenes, figuras, resúmenes; c) para organizar cursos en forma creativa, dosificada y comprensible, mediante el uso de diapositivas; y d) fomentar y hacer posible una comunicación exitosa en comunidades interconectadas entre estudiantes y profesores, mediante el chat, correo electrónico y videoconferencias. Aprender a trabajar con las tecnologías modernas implica, desde esta perspectiva, aprender en condiciones de variación constante por el vertiginoso proceso de mejora e innovación de las tecnologías. Por consiguiente, podemos definir a la educación a distancia como aquella que permite a la educación basada en competencias obtener un aprendizaje significativo de los estudiantes que consideran las diferentes ciencias (polycience), métodos (polymethod) y técnicas (polytechnic) en donde físicamente se separan los estudiantes y los profesores responsables de la educación. Conclusiones 1. El nuevo enfoque metódico, por medio de la aplicación del Polymethod, Polytechnic y Polyscience permitirá contribuir a la resolución de la problemática de la educación a distancia mediante el uso de las nuevas tecnologías de la informática. 2. La educación a distancia tiene que aprovechar al máximo la aparición de las nuevas tecnologías en todos los niveles educativos, con sus innovaciones que apuntan hacia el uso de nuevas técnicas
Figura 2.- Funciones especificas de las nuevas tecnologías educativas para la construcción y el dominio del conocimiento.
didácticas y modificaciones profundas en la relación profesor-alumno, lo que permite que las competencias de análisis y síntesis se adquieran con éxito con el apoyo de las nuevas tecnologías educativas. 3. Los nuevos conceptos propuestos de nuevas tecnologías educativas y de educación a distancia permitirán mejorar las formas de interactividad a nivel nacional e internacional entre todas las instituciones que forman parte del intercambio académico, tecnológico y cultural.
Escuela de Sistemas “Profesor Marcial Ruiz Vargas” Unidad, Norte, UAdeC
Cepeda Dovala, Angel R. Estudio Genético Ambiental: la desertificación en el Estado de Coahuila. Sistemas de producción agrícola en zonas áridas y semiáridas. Proyecto de investigación aplicada. Buenavista, Saltillo, Coahuila, México. UAAAN. 2006 Cepeda Dovala, Angel R. De Menden a Watson y Crick , 50 años despúes. No. 3. Saltillo, Coahuila. Tópicos Culturales AOA.R.C.D. y la UAAAN. 2005. García, Ana y Valcárcel-Muñoz Repiso. Tecnología educativa. Implicaciones educativas del desarrollo tecnológico. Madrid, España. La Muralla. 2003. Gates, B. Los negocios en la era digital. Barcelona España. Plaza & Janés. 1999.
Problemática de espacios públicos en colonias de alta densidad en Saltillo, Coahuila.
Aloma Frigerio
Un espacio público corresponde a aquel territorio de la ciudad donde las personas tienen derecho a estar y circular libremente, ya sean espacios abiertos como plazas, parques, etc., o cerrados como bibliotecas públicas o centros comunitarios. Un espacio público, por lo tanto, es de propiedad estatal y dominio y uso de la población general (García, 2008).
on el objetivo de garantizar el derecho de toda persona a vivir en un ambiente adecuado para su desarrollo, salud y bienestar que se alcanza en un ambiente ecológicamente adecuado, que satisface las necesidades naturales y emocionales del ser humano y debido a que actualmente en Saltillo, Coahuila existe una problemática con respecto a los espacios públicos, esta investigación tiene un enfoque hacia los fraccionamientos de alta densidad (H5) y para fines de comprobación se analizaron 40 colonias.
C
Antecedentes y normativas Salud: para lograr la sostenibilidad a nivel local es preciso idear una nueva estructura que integre las tendencias y los factores demográficos con factores tales como el estado de los ecosistemas, la tecnología y los asentamientos humanos, así como con las estructuras socioeconómicas y el acceso a los recursos (Agenda 211 capítulo 5 sección 43). El acceso a una vivienda segura y sana es indispensable para el bienestar físico, psicológico, social y económico de las personas y debe constituir un elemento fundamental de la acción nacional (Agenda 211 capítulo 7 sección 6). Contaminación y planeación urbana: desarrollar estrategias para mitigar tanto el efecto adverso de las actividades humanas sobre el medio ambiente como el efecto adverso de las modificaciones del medio ambiente sobre las poblaciones humanas. 1 (Agenda 21 capítulo 5 sección 5). Espacios públicos: proyecto de resolución sobre el desarrollo urbano sostenible (ONU, 14 de abril de 2011) propone lo siguiente: Invita a los gobiernos y autoridades locales a formular y aplicar políticas de desarrollo urbano sostenible que promuevan usos socialmente justos y ambientalmente equilibrados del espacio público urbano. 1Acuerdo de las Naciones Unidas (ONU) para promover el desarrollo sostenible. Correo para correspondencia:
[email protected]
Así como facilitar el uso de los espacios públicos de las ciudades para fomentar la convergencia social, cultural, económica y ambiental. La Organización Mundial de la Salud (OMS) recomienda que en las ciudades se cuente con al menos 9m2/habitante de áreas verdes (Secretaría de medio ambiente, 2011-2017). Calidad de vida: en México las reglas de operación del Programa de Rescate de Espacios Públicos, impulsa ante los gobiernos locales la ejecución de obras para que sus habitantes dispongan de sitios seguros en donde realizar actividades deportivas, recreativas, artístico-culturales incidiendo, en el mejoramiento de su calidad de vida (Secretaría de desarrollo social, 2011). Los usuarios de un desarrollo habitacional deberán tener áreas verdes públicas a menos de tres minutos a pie (225 m aproximadamente) (Comisión nacional de fomento a la vivienda, 2005).
plano a escala del municipio de Saltillo, Coahuila, ahí se delimitaron los fraccionamientos y se obtuvieron los metros cuadrados. En seguida se procede a la conversión de metros cuadrados a hectáreas y a partir de eso se utilizaron datos del Plan de Desarrollo Urbano de Saltillo, Coahuila 2003 (2010-2013) en el cual se indica que para los fraccionamientos de alta densidad (H5) existe un total de 71 viviendas por hectárea. Por ejemplo, la colonia Virreyes popular cuenta con una superficie de 185,218.47 m² que son equivalentes a 18.52 hectáreas, en la tabla se multiplica por un total de 71 viviendas por hectárea lo que nos genera un total de 1,315 viviendas en la colonia. En cuanto al apartado de total de habitantes de la colonia, se obtiene de las 1,315 viviendas multiplicado por un promedio que nos proporcionan los datos del censo INEGI 2010 (Panorama Sociodemográfico de Coahuila de Zaragoza, 2010), de 3.8 habitantes por vivienda, así se obtuvo un total de 4,997 habitantes. En seguida, la superficie de áreas verdes se obtuvo del Plan de Desarrollo Urbano de Saltillo, Coahuila (2010-2013) que demuestra que existe una superficie total de 2,772.38 m², lo cual sería equivalente a 0.27 hectáreas de áreas verdes (figura 2).
Figura 1. Mapa de Saltillo en el que aparecen las colonias señaladas.
Figura 2. Colonia Virreyes Popular, calles Matías Gálvez y A.
Análisis de cuarenta colonias Dentro de los fraccionamientos de alta densidad (H5) se tomaron aleatoriamente 40 colonias para su análisis señaladas en la figura 1. ¿Cómo se obtuvieron los datos y sus respectivas relaciones? Los metros cuadrados se obtienen de un
De la totalidad de la superficie del fraccionamiento habitacional se obtiene la relación de 185,218.47m², sobre el total de áreas verdes equivalente a 2,772.38 m² dando así un 1.497% total de área verde. Teniendo la relación de área verde total 2,772.38 m² y un total de 4,997 habitantes en la colonia obtenemos que existe 0.55 m² de áreas verdes por habitante.
Figura 3. Ampliación Luxemburgo. Bulevar Sarmiento y calle Antonio de Mendoza.
Resultados Observando la gráfica siguente es evidente que los fraccionamientos de alta densidad en su totalidad analizados en esta investigación, no cumplen con la recomendación de la Organización Mundial de la Salud (9m2 de áreas verdes/habitante). El más cercano es el fraccionamiento Ampliación Girasol, donde de la totalidad de la superficie del fraccionamiento se obtiene la relación de 185,218.47m², sobre el total de áreas verdes equivalente a 2,772.38 m² dando así un 1.497% total de área verde. Teniendo la relación de área verde total 2,772.38 m² y un total de 4,997 habitantes en la colonia obtenemos que existe 0.55 m² de áreas verdes por habitante. También es evidente que los fraccionamientos de alta densidad en su totalidad analizados en esta investigación no cumplen con la recomendación de la Organización Mundial de la Salud (9m2 de áreas
verdes/habitante). El más cercano es el fraccionamiento ampliación girasol que cuenta con 15,004.27 m2 de áreas verdes lo que genera un índice de 7.61 m2 de áreas verdes por habitante muy por debajo de lo establecido. Otro ejemplo sería la colonia Ampliación Luxemburgo (figura 3) la cual tiene nada más un parque y según los resultados arrojados 1.02 m2 de áreas verdes por habitante. Como se observa en la gráfica 1, los índices más preocupantes de esta investigación son los ocho fraccionamientos que cuentan con 0 m2 de áreas verdes (Hacienda El Cortijo, La Herradura, Los Nogales, Valle de las Torres, Valle de las Torres 2, Valle Verde segundo sector, Virreyes Pensiones y Zapalinamé), lo que representa un 20 por ciento de fraccionamientos que no cuentan con espacios públicos.
Gráfica 1. Índices de áreas verdes por habitante.
Otra manera de demostrar resultados alarmantes es con la gráfica 2, donde podemos observar que la marca superior representa los valores mínimos (según
OMS) de áreas verdes y la marca inferior corresponde a los valores observados.
Gráfica 2. Comparativa de valores reales y recomendados.
Conclusiones Saltillo enfrenta un serio problema de falta de áreas verdes, si observamos las tablas analizadas nos damos cuenta que estamos muy por debajo de las recomendaciones dadas por la Organización Mundial de la Salud. En consecuencia, enfrentamos una desventaja ya que los árboles son captadores de carbono, mejoradores de los ambientes urbanos, son colchones climáticos y mejoran el aspecto de las ciudades. Al no cumplir con las normas generan una baja calidad de vida que también afecta la mezcla social y cultural. Es imprescindible regenerar el aspecto de los asentamientos humanos, a través de estrategias como
mantenimiento, cuidado y preservación, aunque la mejor respuesta a este problema es una planeación anticipada de la creación y crecimiento de espacios públicos en los fraccionamientos, la concientización futura y una medida inmediata son necesarios para beneficio de la población de Saltillo, Coahuila.
Comisión nacional de fomento a la vivienda . “Guía diseño de áreas verdes en desarrollos habitacionales” 1a edición, 2005. García, A. M. “Propuesta de anteproyecto para la recuperación del sector 4. Espacio público.” 2008. Instituto nacional de estadística y geografía (2011). “México en cifras”. (Recuperado de http://www3.inegi.org.mx/sistemas/mexicocifras/de fault.aspx?e=05) ONU, United Nations Conference on Environment & Development, (RÍo de Janeiro, Brasil junio 1992) “Agenda 21” Panorama socio demográfico de Coahuila de Zaragoza. 2010, índice pág. 67, “Municipio de saltillo”. Periódico oficial (17 de enero del 2006- última reforma publicada en el periódico oficial número 82 de fecha 12 de octubre de 2010). “Reglamento de desarrollo urbano y construcciones para el municipio de saltillo, Coahuila. Saltillo, Coahuila.”
Plan de desarrollo 2010-2013 (Saltillo, Coahuila) (Recuperado de http://transparencia.saltillo.gob.mx/transparencia2/attachments/article/22 8/plan%20municipal%20saltillo.pdf) Programa de rescate de espacios públicos. (Recuperado de: http://www. dof.gob.mx/nota_detalle.php?codigo=5289907&fecha=28/02/2013.) Reglamento del equilibrio ecológico y la protección ambiental del municipio de Saltillo, Coahuila (Enero del 2002). Secretaría de desarrollo social (27 de diciembre del 2011). “Acuerdo por el que se emiten las reglas de operación del programa de rescate de espacios públicos para el ejercicio fiscal 2012.” Diario oficial de la federación. México. Secretaría de medio ambiente del gobierno de Coahuila (2011-2017) “Programa estatal de medio ambiente.” Secretaría de urbanismo y obras públicas del gobierno de Coahuila (2003). “Plan director de desarrollo urbano de Saltillo. Saltillo, Coahuila.”
Facultad de Arquitectura, Unidad Saltillo UAdeC
INFORMÁTICA FORENSE una forma de conocer el cómo Alma J. Domínguez Lugo Alicia E. Silva Ávila Rodolfo Piña García Marco Polo Vázquez Gutiérrez El uso y evolución de las tecnologías de información y la comunicación (TIC) brinda nuevas oportunidades para que una institución innove y pueda prevalecer frente a la competencia transformando sustancialmente los procesos de intercambio y producción de información. Introducción ero el uso indebido de las mismas por gente inescrupulosa que realiza ataques en contra de la integridad de sistemas computacionales o redes, ha causado ingentes pérdidas económicas, especialmente en el sector comercial y bancario, debido a esto las empresas pierden credibilidad y se debilitan institucionalmente. Por esta razón se desarrollan herramientas que permiten descubrir a los autores del delito y asegurar las pruebas del mismo. La informática forense está adquiriendo una gran importancia dentro del área de la información electrónica debido al aumento del valor de la información y al uso que se le da a ésta, al desarrollo de nuevos espacios donde es usada (por ejemplo la internet), y al extenso uso de computadores por parte de las compañías de negocios tradicionales (por ejemplo bancos). Es por esto que cuando se realiza un crimen muchas veces la información queda almacenada en forma digital. Sin embargo, existe un gran problema, ya que los computadores guardan la información de la información, de forma tal que no puede ser recolectada o usada como prueba utilizando medios comunes, se deben utilizar mecanismos diferentes a los tradicionales. Es de aquí que surge el estudio de la computación forense como una ciencia relativamente nueva. Resaltando su carácter científico, tiene sus fundamentos en las leyes de la física, la electricidad y el magnetismo. Es gracias a fenómenos electromagnéticos que la información se puede almacenar, leer e incluso recuperar cuando se creía eliminada. La informática forense, aplicando procedimientos estrictos y rigurosos, puede ayudar a resolver grandes crímenes apoyándose en el método científico, aplicado a la recolección, análisis y validación de todo tipo de pruebas digitales (López, 2010).
P
Perspectivas de la informática forense según Microsoft Corporation Informática forense ¿Para qué sirve? Para garantizar la efectividad de las políticas de seguridad y la protección tanto de la información como de las tecnologías que facilitan la gestión de esa información. Correo para correspondencia:
[email protected]
¿En qué consiste? En la investigación de los sistemas de información con el fin de detectar evidencias de la vulneración de los sistemas. ¿Cuál es su finalidad? Cuando una empresa contrata servicios de informática forense puede perseguir objetivos preventivos, anticipándose al posible problema u objetivos correctivos, para una solución favorable una vez que la vulneración y las infracciones ya se han producido. ¿Qué metodologías utiliza la informática forense? Las distintas metodologías forenses incluyen la recogida segura de datos de diferentes medios digitales y evidencias digitales sin alterar los datos de origen. Cada fuente de información se cataloga preparándola para su posterior análisis y se documenta cada prueba aportada. Las evidencias digitales recabadas permiten elaborar un dictamen claro, conciso, fundamentado y con justificación de las hipótesis que en él se barajan a partir de las pruebas recogidas. ¿Cuál es la forma correcta de proceder y por qué? Todo el procedimiento debe hacerse tenido en cuenta los requerimientos legales para no vulnerar en ningún momento los derechos de terceros que puedan verse afectados. Ello para que, llegado el caso, las evidencias sean aceptadas por los tribunales y puedan constituir un elemento de prueba fundamen-tal, si se plantea un litigio, para alcanzar un resultado favorable. ¿Qué es y cómo funciona? El propósito de las técnicas informática forenses, es buscar preservar y analizar información en sistemas de ordenadores para buscar evidencias potenciales de un delito. Muchas de las técnicas usadas por detectives en escenarios de crimen, tienen su contrapartida digital en la informática forense, aunque hay algunos aspectos únicos en la investigación basada en ordenadores. Por ejemplo, simplemente abrir un archivo cambia ese archivo, el ordenador recuerda la hora y fecha en el que fue accedido, de manera que si un detective elige un ordenador y comienza a abrir archivos y carpetas no habrá manera de poder decir si cambiaron algo. La informática forense deberá permitir responder preguntas tales como: ¿Cuándo? ¿Quién? ¿Cómo? ¿Dónde? ¿Para qué? ¿Por qué?
Si lo colocáramos dentro de una línea de tiempo como muestra el gráfico 1, la informática forense, no solo se enmarca como una tarea técnico-legal aislada e individual, sino como una herramienta más de la seguridad informática que entra en juego ante un incidente o hecho, que complementa y afianza a ésta para el logro de sus objetivos. Herramientas Las herramientas que utilizan los peritos forenses en materia de cómputo para dar con los intrusos y saber a ciencia cierta qué hicieron en el sistema, se han desarrollado al paso del tiempo, para que ayuden en cuestiones de velocidad y faciliten identificar lo que realmente le pasó al sistema y qué es lo que le puede suceder, en su contraparte, igualmente se han desarrollado herramientas bastante sofisticadas en contra de los análisis forenses (herramientas y técnicas que intentan no dejar rastros, camuflarlos o borrarlos, de tal manera que se dificulte una posterior investigación.), tal como lo indica el Dr. Jeimi Cano. De allí, el personal que trabaje en la informática forense deberá poseer sólidos conocimientos técnicos y prácticos y conocer las herramientas de uso, estar al día en bugs (vulnerabilidades) de sistemas (Sistemas operativos, software y hardware) El campo de la seguridad informática es inmensamente heterogéneo e interesante. Analizar un entorno atacado y comprometido es un desafiante ejercicio de aplicación de ingeniería inversa, para el cual es necesario tener gran conocimiento del funcionamiento de los sistemas involucrados, las técnicas de ataque y los rastros que dejan. Se debe tener en cuenta que la prioridad es preservar lo más íntegramente posible las evidencias del crimen. Eso significa colocar el sistema fuera de servicio (offline) cuando todos los usuarios del sistema están presionando para volver a ponerlo on-line.
Gráfico 1. Etapas de la informática forense. Fuente: Manuel Mujica
Si el sistema, por parte del administrador, fue forzado a seguir funcionando, eliminando las posibles vulnerabilidades o cualquier otra supuesta vía de acceso al servidor, la investigación forense no podrá seguir el rumbo correcto ya que: Se eliminaría cualquier posibilidad de persecucución del intruso en un futuro ya que se modifica la "escena del crimen" y no se podrían calcular los daños estimados con un grado elevado de certeza. Hay muchas posibilidades de que el admistrador pase por alto algo importante mientras que el intruso (o intrusos) sigue teniendo acceso al sistema. Por lo tanto es mejor sufrir un downtime de red, mientras que se realiza el análisis forense del sistema. Se tiene que establecer una prioridad entre: a) Funcionamiento inmediato, teniendo presente que las huellas dejadas por el o los intrusos pueden haberse eliminado por descuido del administrador y su equipo, y que el servidor puede seguir teniendo puertas traseras bien ocultas. Esta opción permite estar operativo en poco tiempo. b) Investigación forense detallada. Esta opción supone un mayor tiempo de permanencia offline si no existen planes de contingencia y procedimientos para el backup del servicio. Conclusión Un punto importante por conocer, es que la informática forense debe considerarse junto un control legal y una calidad de tecnología como una disciplina de apoyo de la justicia moderna. Los delitos informáticos van en constante avance y de aquí la necesidad de contar con leyes, normas y un riguroso método científico que permita utilizar la evidencia computacional en un proceso legal. En la actualidad el valor de la información está en aumento, con ello debemos de preocuparnos más por protegerla. La informática forense nace a raíz de esta preocupación, buscando tanto la prevención como la reacción y corrección a problemas que puedan afectar los sistemas de información. Para la buena aplicación preventiva de la informática forense es necesaria la realización de auditorías continuas en los sistemas, y la corrección de los errores encontrados en los mismos. También se necesita establecer políticas de seguridad para usuarios y para el uso de los sistemas de información,
con el fin de minimizar la posibilidad de infiltraciones por alguna negligencia por parte de los usuarios o alguna falla en los procedimientos. Por otro lado, en cuanto a la parte reactiva de la informática forense se necesita el uso de programas para la detección de la intrusión en el sistema de información y los cambios realizados a la información (manipulación o borrado). Así como un equipo multidisciplinario para poder cubrir de manera efectiva las áreas que traspasadas durante el ataque y poder rastrear los daños y al atacante. Para que todo lo realizado en la informática forense sea exitoso es necesario que se tengan regulaciones jurídicas que penalicen a los atacantes y que pueda sentenciárseles por los crímenes cometidos. Cada país necesita reconocer el valor de la información de sus habitantes y poder protegerlos mediante leyes. De manera que todos los crímenes informáticos no queden impunes.
Facultad de Ingeniería Mecánica y Eléctrica Unidad Norte, UAdeC
Gómez, L.A. (s.f) La informática forense: una herramienta para combatir la ciberdelincuencia. En www.minseg.gob.ar/node/1050 Israel, M.C. (2009). La informática forense como ciencia sistemática. Revista de información Tecnología y Sociedad. Lilia, Q.S. (s.f.) Academia. Recuperado el 13 de mato de 20015 en www.academia.edu/1883410/informática_forense López Óscar, A.H. (2010). Luctus. Recuperado el 13 de mayo de 2015 de http://luctus.es/wp-content/uploads/2010/06/CIBS102_ba2.pdf, Informática Forense: Generalidades, Aspectos técnicos y Herramientas. Meri, N.A. (s.f.) Revista Informática Forense. recuperado el 14 de mayo de 2015 de http://revistainformaticaforense.blogspot.mx Rivera, A.R. La Consigna obtenido de Informática forense: http:// laconsigna.files.wordpress.com/2008/05/informatica-forense.pdf
Ciencias Sociales y Humanidades
Aciago panorama: la mujer oprimida en México Samuel Cepeda Tovar
Hablar del tema de las mujeres en nuestro país resulta ser siempre un tema asociado directamente a la desigualdad, la discriminación, la brecha de género, la asimetría de oportunidades. No obstante que históricamente ha habido avances en materia de reivindicación de derechos de las mujeres, ciertamente seguimos viviendo en una sociedad en donde las cifras y datos más fidedignos nos siguen evidenciando un estatus lamentable y aciago en materia de derechos de las mujeres.
Introducción asta con echar un lacónico vistazo a estudios efectuados por la OCDE, INEGI, INE, HRW, Observatorio del Feminicidio, etc., en donde podemos percatarnos
B
que aún falta mucho camino por recorrer en el sendero de la igualdad entre hombres y mujeres en nuestro país. A pesar de que existen leyes y reglamentos vanguardistas en materia de protección hacia las mujeres, éstas siguen siendo objeto de felonías de diversa índole, lo que nos trae como resultado que de poco sirva contar con un marco jurídico sólido y contextualizado si por sí solo no es capaz de resultar efectivo en su supuesto teórico cometido. Desde 1913, cuando Emily Davison se arrojó al caballo del Rey en el Derby de Inglaterra, hasta los avances legislativos en materia de inclusión de las mujeres en materia de derechos electorales, las mujeres han iniciado una larga batalla de reivindicación social, de exigencia de derechos y acceso a una vida digna, y a su paso han encontrado indiferencia, hastío, burla y, en muchos casos, represión. El objetivo de este breve trabajo analítico es atisbar la realidad en nuestro país sobre el estatus que prevalece en materia de brecha de género, identificar los problemas y ofrecer propuestas tendientes a resarcir las falencias que como sociedad hemos construido a lo largo de la historia en detrimento de las mujeres. Alejándonos un poco de las cuestiones históricas y adentrándonos en la revisión de datos y cifras que nos ayuden a entender una realidad que para muchos parece ser más común y lejos de los grandes problemas que como sociedad y país atravesamos, pero que, no obstante, reviste una importancia nodal para el desarrollo de nuestro tejido social y la búsqueda de la confección de una sociedad y país que nos ofrezca calidad de vida para todos los que habitamos en él, sin importar el sexo del que se trate. Las mujeres en nuestro país se enfrentan a retos en materia de derechos, de supresión de estereotipos, y, ciertamente, como lo menciona el tema de este texto, se Correo para correspondencia:
Ciencias Sociales y Humanidades enfrentan a retos culturales derivados de la percepción de una sociedad que aún no ha logrado superar atavismos mentales, estereotipos inoculados de tal manera que parecen ser parte de la idiosincrasia de los mexicanos; actitudes despectivas, desigualdad, una cultura de una sociedad permisiva, pasiva y poco participativa. En ese sentido los retos culturales a los que se enfrenta la mujer en pleno siglo XXI, al menos en nuestro país, están ligados precisamente a vencer obstáculos dentro de una sociedad tradicionalista y conservadora y en la cual las mismas mujeres perciben las afrentas en contra de su propio género como algo normal. Aunado a este obstáculo de índole cultural se unen las explicaciones naturales de la diferencia sexual aportadas por ciencias como la antropología, la biología y la medicina que hicieron hincapié en la desigualdad sexual universal en base a la superioridad natural u orgánica del hombre frente a la mujer, desigualdad o diferencia natural irreductible que acabaría por justificar la existencia de una jerarquización social de inferior a superior en la cual la mujer llevara la peor parte, así como a la relegación de la mujer como mero sujeto biológico destinado exclusivamente a la reproducción y a la maternidad. La concepción de la mujer desde diversos enfoques como ser carente de supuestos “atributos masculinos" como la inteligencia, la racionalidad, la capacidad de juicio o la competitividad, sirvieron de base del discurso de la domesticidad y su función exclusiva para actividades inherentes a las labores domésticas, así como de la difusión de un código de género e imaginario colectivo que facilitó, no sólo el rechazo de la presencia femenina en el ámbito público, sino el consentimiento y aceptación de las mujeres de los roles preasignados por el orden patriarcal establecido desde tiempos antiguos. Por ello, los retos van encaminados a superar esos roles que han echado raíces generando una cultura despectiva y permisiva ante los agravios cometidos en contra de las mujeres. El reto resulta ser de proporciones ecuménicas y requiere soluciones graduales en el mediano plazo, pues no podemos ser una sociedad democrática mientras que sigan existiendo grupos vulnerables y los derechos y prerrogativas no sean iguales para todos los que habitamos en este país, sin importar condición económica, religión, preferencias políticas o sexo. Desarrollo Examinando nuestra realidad Para comenzar, es preciso conocer cuál es nuestra
realidad como nación en materia de protección de derechos de las mujeres, más específicamente, conocer cuáles son los agravios que nuestras mujeres sufren en su diario vivir y cuáles las acciones efectuadas para contrarrestar los actos denigrantes que sufren millones de mujeres en nuestro país. Los datos a continuación son el resultado de una investigación que abarcó estudios de diversos organismos gubernamentales y no gubernamentales que ofrecen información sobre el tema en nuestro país. Según el reporte “Brecha de Género en el México y el Mundo”, comparativo internacional 2014, tomando en cuenta 142 países, México ocupa el lugar 80 teniendo como referencia que retrocedimos doce lugares en esta lista en el periodo 20132014. Los índices que miden el estudio se basan en cuatro subíndices: A) Oportunidades económicas, B) acceso a la educación, C) salud y esperanza de vida y E) poder político. En términos generales, el estudio demuestra algunas cuestiones que son más que evidentes. En cuanto a la llamada brecha salarial, en el 2010 las mujeres representaban el 40 por ciento de la fuerza laboral en nuestro país, y según los resultados refrendados por el Colegio de México, la brecha salarial actual de hombres y mujeres es del ocho por ciento, en detrimento de las mujeres. Dentro del estudio “Pobreza y género” llevado a cabo por el CONEVAL, los hogares encabezados por mujeres representan carencias alimentarias en proporción mayor a los hogares que tiene a un varón como jefe de familia. En 2012, el 24.3 por ciento de los hogares encabezados por mujeres presentaron carencias alimentarias, mientras que en el de los hombres, fue del 20.5 por ciento. Por su parte, otro estudio llevado a cabo por el INEGI, la “Encuesta Nacional Sobre Dinámica de las Relaciones en los Hogares” (ENDIREH) aporta datos reveladores en el tema de la violencia y la discriminación: El 46 por ciento de las mujeres mexicanas mayores de 15 años reportan haber sufrido alguna agresión de su pareja. Mientras que el 53 por ciento se consideran víctimas de violencia económica por parte de sus parejas, y, finalmente, 29 por ciento de las encuestadas denuncia haber sufrido agresiones físicas y 16 por ciento víctimas de violencia sexual. El panorama nos habla de una especie de violencia casi generalizada en contra de las mujeres y lo que parece ser más una tradición decimonónica.
Ciencias Sociales y Humanidades En el mismo estudio se menciona un hecho degradante: Dos millones 773 mil 633 mujeres manifestaron que como primer requisito para solicitar trabajo debían realizarse una prueba de embarazo y entregar los resultados a la empresa, organización o patrón contratante. Además, 13.7 por ciento de las mujeres casadas durante 2010 tuvieron menos oportunidades que un hombre para ascender laboralmente; a un 13.5 por ciento les han pagado menos que a un hombre desempeñando el mismo trabajo. Por último, 47 de cada cien mujeres encuestadas de más de 15 años han vivido situaciones de violencia emocional, física o sexual durante su actual o última relación. Asimismo que el 44.8 por ciento de las encuestadas casadas han sido agredidas por su esposo al menos una vez. Ahora bien, según un estudio de la CNN, en cuestión del acceso al poder político de las mujeres, los datos son simplemente deplorables, pues en los 32 congresos locales la presencia femenina supone ser de tan solo un ocho por ciento. A nivel municipal, solo 5.5 por ciento de las alcaldías son presididas por mujeres y en el caso de las gubernaturas, actualmente los 32 Estados son gobernados por hombres. En el poder judicial, sólo dos de los once ministros de la SCJN son mujeres. Aquí cabe mencionar que ciertamente estamos hablando de mujeres que cuentan con recursos económicos que les han permitido incursionar a la vida política, es decir, que estamos hablando del mejor escenario posible en nuestro sistema político y social. Dentro del mismo estudio aparecen datos que a simple vista resultan ser triviales, pero que sin duda vienen a reforzar lo aducido en líneas anteriores respecto a los llamados roles preasignados: Las mujeres dedican 373 minutos al día a diversas actividades del hogar, más de tres veces que los 113 minutos que los hombres destinan a lo mismo. Al cuidado de los hijos, las mujeres dedican 53 minutos diarios mientras que los hombres tan solo 15. En actividades rutinarias como preparación de alimentos, lavado de ropa, etc., las mujeres dedican 280 minutos diarios, mientras que los hombres tan solo 75.
Finalmente, en el caso del tiempo destinado para la diversión, la disparidad es evidente y la orientación de los números da un giro de 360 grados, pues para actividades como ver televisión, reunirse con amigos, etc., las mujeres dedican 206 minutos diarios, mientras que los hombres 236. Esto sólo demuestra una disparidad y una visión predeterminada de que sólo las mujeres deben atender los rubros en los que sobresalen en el párrafo anterior, ya que son tareas cien por ciento domésticas que sólo un “ama de casa” debe realizar. En 2012, un estudio realizado por el G20, llegó a la conclusión de que Arabia Saudita, Indonesia, Sudáfrica y México son los países que peor trato les dan a sus mujeres. El estudio en cuestión midió los siguientes aspectos: acceso a sanidad, violencia generalizada, impunidad, participación política, oportunidades laborales, acceso a la educación y tráfico y esclavitud. Según la encuesta nacional de Parametría, dos de cada cinco entrevistados sabe de alguna mujer maltratada física y emocionalmente, un 35 por ciento conoce a algún familiar de sexo femenino que sufre violencia en el hogar. Cabe mencionar que de los encuestados 29 por ciento conocen a una mujer que ha sido discriminada. Al respecto, especialistas en la materia comentan que la violencia física en contra de las mujeres es un hecho cotidiano, pues la cultura machista sigue ejerciéndose. En diciembre de 2011, la Organización de las Naciones Unidas (ONU), la Cámara de Diputados y el Instituto Nacional de las Mujeres (INM), publicaron un informe denominado “Femi-nicidio en México: aproximaciones, tendencias y cambios”, el cual señala que entre 1985 y 2009 se registraron 34 mil 176 “feminicidios” utilizándose en la mayoría de ellos métodos brutales, tales como: ahorcamiento, estrangulamiento, sofocación, enve-nenamiento e incineración. Y entre 2010 y 2011 desa-parecieron tres mil mujeres y se contabilizaron 529 homicidios de 2011 a 2012.
Ciencias Sociales y Humanidades Al respecto de este escalofriante tema, en 2013 Human Right Watch (HRW) denuncia que las leyes mexicanas no son adecuadas para proteger a las mujeres y a las niñas de la violencia o abusos sexuales. Según datos del Observatorio del Feminicidio en México, de 2012 a 2013 cinco mujeres fueron asesinadas diariamente, es decir, 3 mil 892, no obstante, la cifra probablemente es muy superior, pues no hay registros oficiales al respecto. Cabe mencionar que de estos miles de feminicidios, del total de pesquisas, sólo el 1.6 por ciento de los casos derivó en sentencias, lo cual es una burla y una verdadera tragedia y demuestra la ineficiencia del Estado y sus aparatos de seguridad para poder contener este fatídico problema. Lo más lamentable es que en la actualidad contamos con una serie de leyes y reformas que supuestamente velan por la protección de los derechos de las mujeres, las cuales se mencionan a continuación. Ley General para la Igualdad entre Mujeres y Hombres. Ley General de Acceso de las Mujeres a una Vida sin Violencia Reforma constitucional en materia de Derechos Humanos. Incorporación de la perspectiva de género a la Ley Federal de Presupuesto y Responsabilidad Hacendaria. Reforma a la Ley Orgánica de la PGR para tipificar y sancionar feminicidio y la discriminación. Ninguna de estas disposiciones ha servido para garantizar las condiciones del 52 por ciento de la población en nuestro país. Tenemos legislaciones vanguardistas pero no se refleja su efectividad en la práctica. Como lo mencioné en un principio, tenemos una cultura de la permisividad como sociedad, es decir, no solo toleramos las vejaciones en contra de las mujeres, sino que las vemos como algo normal, y la mejor prueba radica en los datos ofrecidos por la Encuesta Nacional de Cultura y Prácticas Ciudadanas del 2012. En la cual uno de cada tres encuestados ven “normal” que las mujeres obtengan menos ingresos laborales que los hombres, en donde cuatro de cada diez manifestaron que si las mujeres desean trabajar deben hacerlo en tareas propias de su sexo. Y en donde uno de cada cuatro manifiesta que si las mujeres sufren violencia sexual es porque provocan a los hombres. Datos alarmantes y tristes. Desarrollo Una vez presentados los datos, los cuales me parecen denigrantes y denotan una realidad dolorosa, pode-
mos llegar a una simple conclusión: las mujeres en nuestro país son vulnerables y sus derechos son pisoteados de manera periódica, su integridad se ve acotada a pesar de que existen compendios legislativos que deben protegerlas. En palabras de María Guadalupe Ramos Ponce, integrante de Observatorio Ciudadano del Feminicidio: “Tenemos normas maravillosas en muchos sentidos, pero no se traducen en una realidad”. La pregunta es más que obvia: ¿Cuál es la causa de que a pesar de contar con leyes que garantizan la salvaguarda de los derechos de las mujeres, éstas padezcan violencia y discriminación de manera genérica? La respuesta va por el camino de la cultura, por la falta de la solidez de un Estado de Derecho que garantice la igualdad de géneros, pues es en esos aspectos, principalmente, en los cuales los mexicanos adolecemos de ambos. Y es que en lo cotidiano seguimos viendo cómo la mujer sigue siendo objeto de roles predeterminados desde el momento en que en cualquier reunión social son ellas quienes deben preparar los alimentos, son ellas quienes deben hacerse cargo de los hijos, cambiar los pañales, alimentar a los niños, realizar labores de limpieza en casa, etc. Y es que esta visión cultural peyorativa tiene sus orígenes en la misma familia, en un orden patriarcal que tiene inveteradas raíces y en la idea de que resulta imposible cambiar conductas familiares, es precisamente en el ámbito educativo en donde se pueden intentar reformas que coadyuven al cambio de percepción cultural que tenemos como sociedad. Como docente, me parece que desde las aulas se puede comenzar este cambio de cultura, pero para ello es necesario incluir en los programas de estudio de secundaria y medio superior asignaturas que hagan énfasis en los derechos humanos, en la equidad, en la igualdad de las personas, en la tolerancia y en el respeto. Una asignatura cívica orientada a la equidad de género, pero también al fortalecimiento de valores netamente democráticos como los ya mencionados. Y es que seguimos trabajando con esquemas tradicionales de educación y como resultado seguiremos obteniendo resultados tradicionales. Dentro del programa de estudio que en lo personal me toca impartir, sólo un tema con endeble contenido sobre equidad de género se menciona a lo largo del semestre, y es el relativo a la reforma al artículo 34 durante el sexenio de Ruiz Cortines, pero nada más se vuelve a mencionar sobre el tema, salvo platicas, charlas intempestivas y muy coyunturales que sobre el tema imparten algunos entes gubernamentales.
Asimismo, no basta con tipificar como delito federal el feminicidio y la discriminación, sino que resulta necesario crear una instancia que se dedique exclusivamente a darle seguimiento al tema de la discriminación y abusos contra las mujeres, una fiscalía especializada en materia de equidad de género, con facultades y prerrogativas más allá de las que poseen la CONAPRED, la CNDH y el INM. De lo contrario, leyes, reglamentos y reformas irán y regresaran, obteniendo siempre los mismos resultados. Guardadas todas las proporciones, durante la guerra de secesión en Estados Unidos, los hombres de color eran discriminados, explotados y oprimidos en la parte sur de dicho país, mientras que en la parte norte gozaban de libertad y derechos como cualquier otra persona, la diferencia no estribaba en las leyes, aunque siempre son necesarias, sino que la cultura y la percepción de los hombres del norte era completamente diferente. No se trataba de estar de acuerdo o no con las leyes, se trataba de convicción social frente a un tema de discriminación. Y los infantes que crecen en un ambiente de tolerancia crecen sin prejuicios y predisposición de roles hacia cualquier grupo social o género humano. Por eso resulta importante que el gobierno adopte como política educativa de estado el tema de la equidad de género, pues de lo contrario veremos pasar foros, convenciones, tertulias de especialistas sobre el tema de la equidad de género y leyes y más leyes aprobadas, pero sin un cambio cultural generacional, seguiremos estando en la lista de los cinco países que más tratan mal a sus mujeres en un simple y puro acto de simulación institucional al contar con leyes sin importar su eficiencia. La mejor prueba radica en la misma reforma de 1953, y es que a pesar de que desde ese entonces las mujeres pueden participar en la política, su participación es muy escueta y al menos con las cifras mencionadas en principio da lo mismo contar o no con esa prerrogativa si los datos no son más que paupérrimos. No se necesitan grandes propuestas estrambóticas ni tampoco inventar el hilo negro, se trata de lanzar una agresiva estrategia educativa a largo plazo, pues insisto, es un cambio generacional, y que puede ciertamente empezar en un campo en el que las mujeres no son tan vapuleadas, pues es en el ámbito educativo el único en el que las mujeres han avanzado considerablemente, según datos del Instituto Nacional Electoral (INE) en su informe: “Situación actual de las mujeres en México”. De ninguna manera asumo que esas medidas sean la panacea al tema de la violencia y la discriminación
hacia las mujeres, pero desde luego que suponen ser una estrategia directa para tratar de modificar percepciones culturales, que al parecer y ante los datos ofrecidos, resultan ser una gran parte del actual problema al cual se enfrentan las mujeres en nuestro país en el siglo XXI. Para finalizar, no quiero dejar de mencionar un dato que resulta ser sugestivo y muy preocupante, pues a pesar de todos los problemas que como sociedad tenemos, incluidos los mencionados y soportados con cifras en este trabajo, los mexicanos, según el Índice de Desarrollo Humano 2014 del PNUD, el 78 por ciento de los mexicanos estamos satisfechos con nuestro nivel de vida, es decir, con nuestra realidad, y eso resulta poco alentador en momentos en que necesitamos ciudadanos participativos que exijan y colaboren en la búsqueda de resoluciones para temas tan delicados como los presentados a lo largo de este texto. Lamentablemente, con cifras que demuestran conformismo, nada bueno se puede esperar a futuro en materia de derechos humanos y, particularmente, de equidad de género.
Facultad de Ingeniería Mecánica y Eléctrica Unidad Norte, UAdeC
CNN. 7 datos sobre la desigualdad entre las mujeres y hombres en México. Global Gender Gap. Report 2014. World Economic Forum (WEF). Cnnmexico.com Instituto Nacional Electoral. “Situación actual de las mujeres en México”. 2013. INEGI. ENDIREH 2011. SEGOB. ENCUP 2010. PNUD. Índice de Desarrollo Humano 2014. Readers Digest. Grandes Acontecimientos del Siglo XX. México. www.coneval.gob. www.parametria.com.mx. www.inmujeres.gob.mx
radio