« enero 2020 | Inicio | marzo 2020 »

4 posts from febrero 2020

02/24/2020

La industria te necesita más de dos horas

LA INDUSTRIA TE NECESITA MÁS DE DOS HORAS

La industria te necesita más de dos horas.

Sobre la desacertada declaración en medios de comunicación de la entonces Ministra de Trabajo, Alicia Arango, la Asociación Colombiana de Facultades de Ingeniería ACOFI se pronuncia a través de un comunicado donde resalta la importancia de la Ingeniería de Sistemas como motor de desarrollo en la era digital de la sociedad.  A continuación podrá leer el comunicado oficial de la asociación:

 

COMUNICADO DE LA ASOCIACIÓN COLOMBIANA DE FACULTADES DE INGENIERÍA

 Bogotá, D.C., Febrero de 2020.

La Asociación Colombiana de Facultades de Ingeniería (ACOFI), entidad sin ánimo de lucro que reúne a la mayoría de las facultades de ingeniería del país, de las cuales forman parte los programas de ingeniería de sistemas y carreras afines, considera necesario que el Gobierno nacional haga claridad con respecto a las declaraciones de la señora ministra de Trabajo, Alicia Arango Olmos, quien el domingo 2 de febrero, en entrevista con el director de Noticias Caracol, Juan Roberto Vargas, expresó: “Colombia tiene que cambiar su forma de contratar … Por ejemplo, a un ingeniero de sistemas tú no lo necesitas todo el día en tu oficina sino dos horas”.

El Gobierno nacional está en todo su derecho de proponer y hacer las revisiones y ajustes laborales que considere pertinentes, de acuerdo con la ley y en beneficio de la sociedad, en relación con la flexibilidad laboral y el teletrabajo, entre otros aspectos que deben ser analizados por los expertos en cada materia.

Sin embargo, en el contexto de la entrevista, el ejemplo citado por la señora ministra desconoce la realidad del ejercicio de una profesión seria y rigurosa como la Ingeniería de Sistemas, cuyos profesionales asumen una enorme responsabilidad en empresas públicas y privadas en procesos administrativos, tecnológicos y humanos determinantes en el habitual desarrollo de las actividades y sobre todo en el avance de las entidades e instituciones correspondientes.

Cabe recordar que el mismo Gobierno nacional, en su política de TIC, ha planteado la necesidad de que en el país se gradúe un mayor número de ingenieros de sistemas y carreras afines para que participen en la construcción de la economía a partir de sus aportes en el conocimiento y utilización de las tecnologías de la información y las comunicaciones. Esta labor requiere un profundo sentido del deber en el ejercicio de la Ingeniería de Sistemas, lo cual no se circunscribe al tiempo que demanda.

 Con estas consideraciones, ACOFI invita a quienes han asumido el poder y ejercen sus funciones públicas a ser cuidadosos en sus declaraciones, para que no vayan en detrimento de la imagen y el quehacer de quienes ejercen profesiones reguladas en Colombia.

02/17/2020

10 pasos para crear una cultura basada en los datos

10 pasos para crear una cultura basada en los datos Por David Waller

10 pasos para crear una cultura basada en los datos

Por David Waller[i]

 

[i] David Waller es socio y jefe de la división de ciencia de datos y analítica de la empresa Oliver Wyman Labs.

La generación de grandes cantidades de datos tiene el potencial de alimentar una nueva era de innovación basada en las realidades empresariales, respaldando las nuevas ideas con pruebas sólidas. Animadas por la esperanza de satisfacer mejor a los clientes, racionalizar las operaciones y mejorar las estrategias, las empresas han acumulado datos durante la última década, por lo que han invertido en tecnologías y pagan generosamente por el talento analítico. Sin embargo, para muchas empresas sigue siendo difícil alcanzar una cultura sólida basada en los datos, y esta rara vez constituyen la base universal para la toma de decisiones.

¿Por qué es tan difícil?

Los mayores obstáculos para crear empresas basadas en datos no son técnicos, sino culturales. Es bastante simple describir cómo se generan datos en un proceso de toma de decisiones. Pero lo que es muy difícil es hacer que esto sea normal, incluso automático; para los empleados, esto es un cambio de mentalidad que representa un desafío enorme. Así que hemos resumido 10 pasos para ayudar a crear y mantener una cultura basada en los datos.

  • La cultura basada en los datos comienza en la parte superior. Las compañías con una fuerte cultura basada en datos tienden a tener altos directivos que establecen la expectativa de que las decisiones deben estrechamente relacionadas con los datos, debe ser apenas normal, no tendría por qué ser novedoso o excepcional. Ellos dan el ejemplo. Así, en una empresa líder en tecnología, los altos ejecutivos pasan 30 minutos al comienzo de las reuniones leyendo resúmenes detallados de propuestas y los correspondientes datos de apoyo, para poder tomar decisiones basados en evidencia. Estas prácticas se propagan hacia abajo, ya que los empleados que quieren que se les tome en serio tienen que comunicarse con los altos directivos en sus mismos términos y lenguaje. El ejemplo de unos pocos en la cima puede catalizar cambios sustanciales en la cultura de toda la empresa.
  • Elegir las métricas con cuidado - y astucia. Los líderes pueden ejercer un poderoso efecto en el comportamiento eligiendo estratégicamente qué medir y qué métrica esperan que usen los empleados. Supongamos que una empresa puede beneficiarse anticipando los movimientos de precios de sus competidores. Bueno, hay una métrica para eso: exactitud de la predicción a través del tiempo. Así que un equipo debe hacer continuamente predicciones explícitas sobre la magnitud y dirección de tales movimientos. También debe hacer un seguimiento de la calidad de esas predicciones - ¡mejorarán constantemente!

Por ejemplo, un importante operador de telecomunicaciones quería asegurarse de que su red proporcionara a los clientes clave la mejor experiencia posible para el usuario. Pero sólo había reunido estadísticas agregadas sobre el rendimiento de la red, por lo que sabía poco sobre quién recibía qué y la calidad de servicio que experimentaban. Al crear métricas detalladas sobre las experiencias de los clientes, el operador podía hacer un análisis cuantitativo de las repercusiones causadas por mejoras de la red en el consumidor. Para ello, la empresa sólo necesitaba tener un control mucho más estricto de la procedencia y el consumo de sus datos.

  • No encasille a sus científicos de datos. Los científicos de datos son a menudo secuestrados dentro de una compañía, con el resultado de que ellos y los líderes empresariales saben muy poco el uno del otro. La analítica no puede sobrevivir o proporcionar valor si opera de forma separada del resto de una empresa. Quienes han abordado este desafío con éxito generalmente lo han hecho de dos maneras.

La primera táctica es hacer muy permeable cualquier frontera entre la empresa y los científicos de datos. Una aseguradora global líder rota el personal de cada centro de excelencia a roles de línea, donde escalan una prueba de concepto. Entonces ahí es cuando pueden volver a su respectivo centro. Una empresa global de comercio de materias primas ha diseñado nuevos roles en varias áreas funcionales y líneas de negocio para aumentar la sofisticación analítica; estos roles tienen relaciones indirectas con los centros de excelencia.  En última instancia, los detalles importan menos que el principio, que es encontrar maneras de fusionar el conocimiento del área y el conocimiento técnico.

Las empresas de vanguardia utilizan otra táctica.  Además de acercar la ciencia de los datos a la empresa, tiran de la empresa hacia la ciencia de los datos, principalmente insistiendo en que los empleados son alfabetizados en programación y conceptualmente fluidos en temas cuantitativos. Los líderes senior no necesitan ser ingenieros expertos en machine-learning, pero los líderes de las organizaciones centradas en los datos no pueden permanecer ignorantes al lenguaje de los datos.

  • Solucionar rápidamente los problemas básicos de acceso a los datos. La queja más común que escuchamos es que la gente en diferentes partes de un negocio lucha por obtener incluso los datos más básicos. Curiosamente, esta situación persiste a pesar de una serie de esfuerzos para democratizar el acceso a los datos dentro de las corporaciones. Privados de información, los analistas no hacen muchos análisis, y es imposible que una cultura basada en los datos se arraigue, y mucho menos que florezca.

Las principales empresas utilizan una estrategia simple para romper este atasco.  En lugar de grandes pero lentos programas para reorganizar todos sus datos conceden acceso universal a sólo unas pocas unidades clave a la vez. Por ejemplo, un banco mundial líder, que intentaba anticipar mejor las necesidades de refinanciación de los préstamos, construyó una capa de datos estándar para su departamento de marketing, centrándose en las medidas más relevantes. En este caso se trataba de datos básicos relativos a las condiciones de los préstamos, los saldos y la información sobre los bienes, datos de los canales de comercialización sobre la forma en que se originaron los préstamos; y datos que caracterizaban la amplia relación bancaria de los clientes. Independientemente de la iniciativa específica, una elección acertada para que los primeros datos sean accesibles es la métrica en la agenda de los ejecutivos seniors más importantes de la organización. Exigir que otros se vinculen eventualmente a esta fuente de datos puede alentar dramáticamente su uso.

  • Cuantificar la incertidumbre. Todo el mundo acepta que la certeza absoluta es imposible. Sin embargo, la mayoría de los directivos siguen pidiendo respuestas a sus equipos sin la correspondiente medida de confianza. Les falta un truco, exigir a los equipos que sean explícitos y cuantitativos sobre sus niveles de incertidumbre tiene tres efectos poderosos.

En primer lugar, obliga a los responsables de la toma de decisiones a enfrentarse directamente a las posibles fuentes de incertidumbre: ¿son fiables los datos? ¿Hay muy pocos ejemplos para un modelo fiable?  ¿Cómo pueden incorporarse factores cuando no hay datos para ellos, por ejemplo, la dinámica competitiva emergente?  Un minorista descubrió que la aparente degradación de las tasas de reembolso de sus modelos de comercialización directa se debía a que los datos de direcciones estaban cada vez más obsoletos. Una actualización, además de un proceso para mantener los datos frescos, solucionó el problema.

En segundo lugar, los analistas adquieren una comprensión más profunda de sus modelos cuando tienen que evaluar rigurosamente la incertidumbre. Por ejemplo, los modelos de riesgo de una aseguradora del Reino Unido no se han ajustado adecuadamente a las tendencias del mercado.  Por lo tanto, la aseguradora construyó un sistema de alerta temprana para tener en cuenta estas tendencias y detectar los casos que de otro modo se habrían pasado por alto. En consecuencia, evitó las pérdidas debidas a los aumentos repentinos de los siniestros.

Por último, el énfasis en la comprensión de la incertidumbre empuja a las organizaciones a realizar experimentos.  "En la mayoría de los lugares, 'probar y aprender' significa en realidad 'jugar y esperar'", señaló en una ocasión el jefe de comercio de un minorista. En su empresa, un equipo de analistas cuantitativos se emparejó con gerentes de categoría para llevar a cabo ensayos estadísticamente rigurosos y controlados de sus ideas antes de hacer cambios generalizados.

  • Hacer que las pruebas de concepto sean simples y robustas, no elegantes y frágiles. En la analítica, las ideas prometedoras superan en gran medida a las prácticas. A menudo, no es hasta que las empresas tratan de poner pruebas de concepto en producción que la diferencia se hace evidente. Una gran aseguradora realizó una hackathon interna y coronó a su ganador - una elegante mejora de un proceso en línea - sólo para desechar la idea porque parecía requerir costosos cambios en los sistemas subyacentes. Desechar buenas ideas de esta manera puede ser desmoralizante para las organizaciones.

Un mejor enfoque es el de las pruebas de ingeniería de concepto, en las que una parte fundamental del concepto es su viabilidad en la producción. Una buena forma es empezar a construir algo que sea de grado industrial pero trivialmente simple, y luego aumentar el nivel de sofisticación. Por ejemplo, para aplicar nuevos modelos de riesgo en un gran sistema informático distribuido, una empresa de productos de datos comenzó por aplicar un proceso extremadamente básico que funcionaba de extremo a extremo: un pequeño conjunto de datos fluía correctamente desde los sistemas de origen y a través de un modelo simple y luego se transmitía a los usuarios finales. Una vez que esto estaba en marcha, y sabiendo que el conjunto seguía cohesionado, la empresa podía mejorar cada componente de forma independiente: mayores volúmenes de datos, modelos más exóticos y mejor rendimiento en tiempo de ejecución.

  • El entrenamiento especializado debe ofrecerse justo a tiempo. Muchas empresas invierten en esfuerzos de capacitación "big bang", sólo para que los empleados olviden rápidamente lo que han aprendido si no lo han puesto en práctica de inmediato. Por lo tanto, si bien los conocimientos básicos, como la codificación, deberían formar parte de la capacitación fundamental, es más eficaz capacitar al personal en conceptos y herramientas analíticas especializadas justo antes de que se necesiten, por ejemplo, para una prueba de concepto. Un minorista esperó hasta poco antes de una primera prueba de mercado antes de formar a sus analistas de apoyo en los puntos más sutiles del diseño experimental. El conocimiento se quedó atascado, y conceptos que antes eran extraños, como la fiabilidad estadística, ahora forman parte del lenguaje popular de los analistas.
  • Usar la analítica para ayudar a los empleados, no sólo a los clientes. Es fácil olvidar el papel potencial de la fluidez de los datos para hacer más felices a los empleados. Pero capacitar a los empleados para que puedan manejar los datos por sí mismos puede generar esa felicidad, ya que les permite seguir los consejos de un memorable libro sobre programación “Automatizar las cosas aburridas con Python”. Si la idea de aprender nuevas habilidades para manejar mejor los datos se presenta en abstracto, pocos empleados se entusiasmarán lo suficiente como para perseverar y renovar su trabajo. Pero si los objetivos inmediatos les benefician directamente, ahorrando tiempo, ayudando a evitar la repetición de tareas, o buscando la información que necesitan con frecuencia, entonces una tarea se convierte en una elección. Hace años, el equipo de análisis de una importante aseguradora aprendió los fundamentos de la computación en nube simplemente para poder experimentar con nuevos modelos en grandes conjuntos de datos sin esperar a que el departamento de TI se ponga al día con sus necesidades. Esa experiencia demostró ser fundamental cuando, por fin, TI rehízo la infraestructura técnica de la empresa. Cuando llegó el momento de esbozar los requisitos de la plataforma para el análisis avanzado, el equipo pudo hacer más que describir una respuesta. Podían demostrar una solución que funcionara.
  • Estar dispuesto a cambiar la flexibilidad por la consistencia, al menos a corto plazo. Muchas empresas que dependen de los datos albergan diferentes "tribus de datos". Cada uno puede tener sus propias fuentes de información preferidas, métricas a medida y lenguajes de programación favoritos. En toda una organización, esto puede ser un desastre. Las compañías pueden perder incontables horas tratando de reconciliar sutilmente diferentes versiones de una métrica que debería ser universal. Las inconsistencias en la forma en que los modeladores hacen su trabajo también cobran un precio. Si los estándares y lenguajes de codificación varían en un negocio, cada movimiento del talento analítico implica un reentrenamiento, lo que hace difícil su circulación. También puede ser prohibitivamente engorroso compartir ideas internamente si siempre requieren traducción. Las empresas deberían, en cambio, elegir métricas y lenguajes de programación comunes. Un banco global líder hizo esto, insistiendo en que sus nuevas contrataciones en la banca de inversión y la gestión de activos sabían cómo codificar en Python.
  • Acostúmbrese a explicar las elecciones analíticas. Para la mayoría de los problemas analíticos, rara vez hay un enfoque único y correcto. En su lugar, los científicos de datos deben tomar decisiones con diferentes compensaciones. Así que es una buena idea preguntar a los equipos cómo abordaron un problema, qué alternativas consideraron, cuáles entendieron que eran los equilibrios y por qué eligieron un enfoque sobre otro. Hacer esto como una cuestión de costumbre da a los equipos una comprensión más profunda de los enfoques y a menudo los incita a considerar un conjunto más amplio de alternativas o a repensar los supuestos fundamentales. Una compañía global de servicios financieros asumió en un principio que un modelo de aprendizaje automático bastante convencional para detectar el fraude no podía funcionar con la suficiente rapidez para ser utilizado en la producción. Pero más tarde se dio cuenta de que el modelo podía hacerse con una rapidez asombrosa con unos pocos y sencillos ajustes. Cuando la compañía comenzó a utilizar el modelo, logró mejoras sorprendentes en la identificación precisa del fraude.

Las compañías y las áreas e individuos que las componen a menudo recurren al hábito, porque las alternativas parecen demasiado arriesgadas. Los datos pueden proporcionar una forma de evidencia para respaldar las hipótesis, dando a los gerentes la confianza para saltar a nuevas áreas y procesos sin dar un salto en la oscuridad. Pero no basta con aspirar a que los datos sean la base de todo esto. Para ser impulsadas por los datos, las empresas necesitan desarrollar culturas en las que esta mentalidad pueda florecer. Los líderes pueden promover este cambio a través del ejemplo, practicando nuevos hábitos y creando expectativas sobre lo que realmente significa arraigar las decisiones en los datos.

Tomado de https://hbr.org/2020/02/10-steps-to-creating-a-data-driven-culture

Traducción: PhD. Gustavo Andrés Campos Avendaño

Director de investigaciones

Matemáticas e Ingenierías

02/10/2020

¿Puede refrigerarse un cuerpo usando magnetismo?

¿Puede refrigerarse un cuerpo usando magnetismo_ 2

¿Puede refrigerarse un cuerpo usando magnetismo?

Recientemente leí un artículo corto, de aquellos que nos recomienda Google en nuestros teléfonos inteligentes, que se titulaba “De los egipcios a la física: los orígenes de lo que hoy conocemos como el aire acondicionado”[1], y no solo captó mi atención por aquel método de refrigeración empleado por los egipcios para satisfacer las necesidades térmicas de sus faraones y su evolución hasta el invento del aire acondicionado mucho tiempo después, sino porque es muy escaso encontrar artículos de divulgación que se refieran a los problemas de las tecnologías de la refrigeración y a algunos de los aspectos teóricos y conceptuales que hay de fondo.

En esta entrada quiero hablarles de uno de los mecanismos de refrigeración menos conocidos, pero igual de fascinante que todos los ciclos de compresión, la denominada refrigeración magnética.

El efecto magneto-calórico (EMC) es una propiedad que presentan todos los materiales que presentan comportamientos magnéticos (por ejemplo, los imanes que compras y usas en casa) pero esta propiedad se hace más notoria y de mayor interés tecnológico cuando aparece un fenómeno denominado transición de fase magnética.

Busquemos un ejemplo cotidiano que nos permita pensar en dicho fenómeno:  imaginemos por un momento que tenemos una biblioteca en la casa muy desordenada, los libros están colocados en los estantes de manera aleatoria. Un domingo, te encuentras en casa y decides que es hora de organizar dicha biblioteca, para ello decides invertir tiempo y energía en organizar los libros de una manera coherente de acuerdo a un esquema, por ejemplo, por nombres o por temas.

Esto que acabas de hacerle a tu biblioteca es similar a lo que ocurre cuando tienes un material magnético que está a alta temperatura o sin campos magnéticos externos actuando, se denomina paramagnético (tiene sus momentos magnéticos desordenados sin interactuar entre ellos). Ahora decides enfriar el material o aplicar campo y los espines comienzan a interactuar entre ellos y a organizarse y así tienes un material magnetizado (o como diríamos cotidianamente un imán). Lo anterior es lo que denominamos una transición de fase.

Invertir energía para ordenar los momentos magnéticos de los átomos que componen el sólido, (como ordenar los libros de tu biblioteca), será compensado por un incremento en el desorden del arreglo atómico [2]. En nuestro ejemplo mental, considera que los estantes donde vas a colocar los libros son elásticos, y mientras más libros apilas para organizar, más se van deformando. Esta analogía un poco rústica, nos sirve para entender que la red cristalina tiene características elásticas y si reorientas los momentos magnéticos para que interactúen, se inducen deformaciones estructurales. Esta “competencia” de efectos se verá reflejada en un incremento en la temperatura o calentamiento magnético adiabático y a esto se le conoce como efecto magnetocalórico.

Ahora vamos a pensar en el sistema que está afuera del “imán”; como en el ejemplo de la biblioteca, el sistema externo serías tú. Tuviste que arreglar los libros y para ello invertiste energía. Bueno, en nuestro caso vamos a pensar que tenemos un líquido (que nos servirá de intercambiador de calor) a cierta temperatura que está en contacto con el “imán”, pues las diferencias de temperaturas entre el sólido magnético y el líquido, sumado al proceso energético y termodinámico del material magnético nos permiten recrear un ciclo similar al de enfriamiento y calentamiento de sistemas tipo Carnot, Ericsson entre otros.

En la actualidad, pensar en tecnologías que reemplacen las tradicionales de compresión de gas es una necesidad mundial, especialmente por los efectos que los gases clorofluorocarbonados (CFC) han tenido en la contaminación del planeta y que son típicamente usados en los sistemas de refrigeración convencionales.

Así que te presentamos un tema del cual poco has escuchado hablar y que esperamos pueda ser de tu interés, pues este campo está lleno de interrogantes, de diseño de nuevos materiales, fabricación de sistemas de intercambio y dispositivos reales que funcionen en diferentes regímenes térmicos… ¡Bienvenido al mundo de las aplicaciones del magnetismo que seguramente poco conocías!

[1] F. Rivas (2020, 01,30). De los egipcios a la física: los orígenes de lo que hoy conocemos como el aire acondicionado (online). Disponible: https://www.biobiochile.cl/noticias/ciencia-y-tecnologia/inventos-y-descubrimientos/2020/01/30/de-los-egipcios-a-la-fisica-los-origenes-de-lo-que-hoy-conocemos-como-el-aire-acondicionado.shtml

[2] M. Ríos, “Fabricación y Caracterización de perovskitas tipo 𝐿𝑎1−𝑥𝐷𝑦𝑥𝑀𝑛1−𝑦𝑍𝑛𝑦𝑂3 con sustituciones metálicas” (tesis de maestría). Departamento de Física, Universidad Nacional de Colombia, Bogotá D.C. 2017.

 

MSc. Mariana Ríos Naranjo

Docente

Facultad de Matemáticas e Ingenierías

Fundación Universitaria Konrad Lorenz

02/04/2020

Escribir un artículo científico y no morir en el intento

Escribir un artículo científico y no morir en el intento 2

Escribir un artículo científico y no morir en el intento

Año tras año las publicaciones científicas van consiguiendo un alto nivel de importancia en el mundo académico, ya que es necesario divulgar el conocimiento que ha sido adquirido a través de la investigación.  En esta entrada hablaremos de una de las herramientas más importantes que tienen los investigadores para la divulgación de sus resultados, el artículo científico, y su estructura. Para comenzar, lo primero es conocer el significado de este concepto. De acuerdo con la Unesco (1983), el artículo científico pretende la comunicación de los resultados de investigaciones de manera clara, concisa y fidedigna.

Por otro lado, el artículo científico tiene una característica significativa, a saber: que el conocimiento pueda llegar a todas partes del mundo, impactando positivamente en estudiantes, profesores, empresarios, entre otros. Explicado lo anterior, referente al concepto y a la importancia del artículo científico, es indispensable conocer cómo es su estructura. A continuación, conoceremos la composición del artículo científico, explicando a detalle cada ítem que lo compone.

  • Título: Un buen título describe de manera adecuada, simple y breve el contenido del artículo con el propósito de llamar la atención de los lectores a primera vista.
  • Autoría: El primer y segundo autor suelen ser los investigadores que lideran la recolección de datos y el análisis de resultados. Sin embargo, esto puede variar según las prácticas de cada país o cada disciplina, por ejemplo, en algunos países o disciplinas se considera que el último autor es el investigador “senior” que lidera el equipo de investigación. También se puede dar el caso de que la revista sugiera que el orden de los autores se organice alfabéticamente por apellido.
  • Resumen o “Abstract”: La calidad y redacción del resumen son muy importantes para influir en la decisión del editor de una revista y de los lectores potenciales. Tenga en cuenta que el editor es el primer filtro de la revista. Un buen resumen debe ser preciso, entenderse por sí solo, usar un vocabulario simple y sin términos poco comunes, debe ser breve y conciso, y no se deben incluir referencias. Así mismo, la estructura del resumen debe exponer el problema o vacío en la literatura, el estudio que se llevó a cabo, la metodología utilizada, los principales hallazgos y las recomendaciones.

  • Las palabras clave o “keywords”: Esta selección de palabras es muy importante para indexar el artículo en bases de datos, de tal manera que sea fácil de identificar y citar. Estas palabras deben ser específicas y directamente relacionados con el estudio, además se deben evitar abreviaciones. El número de palabras clave se limita a las indicaciones de la guía para los autores de cada revista.
  • Introducción: En la introducción se debe suministrar suficiente información para poner en contexto a lector acerca de las razones para desarrollar el estudio y su importancia, los estudios previos y cómo se diferencian, el objetivo y la estructura del artículo.
  • Revisión de literatura: Se centra en la búsqueda de información basada en la pregunta de investigación y/o el objetivo que persigue la investigación. Esta información puede estar en artículos científicos, documentos de revisión por pares, libros, literatura gris, etc.
  • Métodos: Esta sección debe proporcionar información acerca de las metodologías seguidas para llevar a cabo el estudio de tal manera que otros investigadores puedan replicarlo y comprenderlo. Así que, se debe explicar el diseño de la investigación, el acceso y la recopilación de datos, su respectivo análisis, la validez del estudio y sus limitaciones. Las limitaciones pueden estar ligadas al tiempo, al presupuesto para el acceso a los datos, entre otros.
  • Resultados y hallazgos: Esta sección presenta los principales hallazgos de la investigación, especialmente con el uso de figuras, tablas, y resultados estadísticos que deben ser claros, fáciles de interpretar y se recomienda un diseño estético que llame la atención del lector. Ponga especial atención a las figuras porque suelen ser lo primero que ven los lectores, así que un diseño claro y llamativo puede ser la clave para incrementar el impacto de su artículo.
  • Discusión: Describe la relación entre los resultados con los objetivos de investigación y con los resultados de estudios similares o del mismo campo de estudio. También incluye la propia interpretación de los resultados y las limitaciones del estudio. En algunas revistas, esta sección puede combinarse con la sección de resultados.
  • Conclusiones: En ese momento el artículo debe poner en contexto al lector nuevamente con el fin de concienciarle sobre el valor de la investigación para la literatura en el campo de estudio. Además, se pueden sugerir futuras investigaciones o la réplica del estudio para ampliar el conocimiento en el campo de investigación.

Adicional al cuerpo del artículo se deben incluir las siguientes secciones:

  • Agradecimientos: Es fundamental nombrar a todas las personas e instituciones que hayan contribuido con el desarrollo de la investigación, con su conocimiento o con subvenciones otorgadas a través de convocatorias de instituciones públicas o privadas.
  • Referencias: Las citas deben presentarse de acuerdo a la guía para autores de la revista seleccionada, aunque el estilo de referencia más común es la norma APA (American Psychological Association).

Referencias empleadas en esta entrada

Unesco. (1983). Guía para la redacción de artículos científicos destinados a la publicación. (2).

 

Dr. Juan Felipe Bermeo

Profesor Investigador

Facultad de Matemáticas e Ingeniería.

juanf.bermeol@konradlorenz.edu.co