Avisar de contenido inadecuado

DISEÑO Y EVALUACION DE PROYECTO

{
}

DEFINIR LOS CONCEPTOS

  • PLANTEAMIENTO DEL PROBLEMA
  • JUSTIFICACION
  • VARIABLES
  • HIPOTESIS
  • OBJETIVOS
{
}
{
}

Comentarios DISEÑO Y EVALUACION DE PROYECTO

soy una estudiante de el colegiomasonico y donde es que ahi que dejarle la tarea por que la hize o deme su coreo por favor para yo mandarselo la tarea este es mi blog

Fernanda Martinez

N° 16

4to Tec



Definir los sgtes conceptos:
PLANTEAMIENTO DEL PROBLEMA JUSTIFICACION VARIABLES HIPOTESIS OBJETIVOS




Planteamiento del problema

Cuando una persona se ve abocada a la realización de una investigación y en especial de un proyecto, su mayor perocupación es definir el tema , de esta decisión depende la conclusión pronta ò tardia de la investiagción , pero como se toma esta decisión, que esta influenciada por los aspectos intrinsicos y estrinsicos,...
Para tener la idea clara se deben formular una serie de preguntas orientadoras
para la elaboraciòn de un problema , entre ellas podemos mencionar a ;
Es de interés el tema
Existe informaciòn sobre ese fenómeno ò sobre similares
Quien centraliza esa informaciòn
Que resultados obtuvieron anteriormente
Es un trabajo inédito
Cuando el investigador da respuesta a los interrogantes planteados, inicia la selección del tema de la observaciòn directa de la realidad en la que se encuentra, al mismo tiempo el investigador debe posesionarse de la mayor cantidad de conocimiento sobre el tema que desea investigar, es decir debe transformarse en EXPERTO en ese tema ó debe ser asesorado por UN PROFESIONAL que cuente con ese bagaje de conocimiento, por otra parte las fuentes de informaciòn que se deberán utilizar son tanto directas como indirectas, ente estas pueden y deben ser primarias secundarias y en muy pocas ocasiones terciarias, lo que necesitamos es recolectar datos para tener un contexto que nos aclare nuestra inquietud, al mismo tiempo uno debe realizar este trabajo moroso para entender los propósito directos e implícitos del investigador.
El punto de partida para la investigaciòn es elegir el tema ò problema , es establecer mediante una observaciòn cual es la duda o la falta de conocimiento existente , en la actualidad los investigadores tienen a originar sus ideas creativas en la simple observación de la realidad en la que vive, en la revisión crìtica y lògica de trabajos similares ó diferentes al que desea realizar, esta bibliografía especializada le permitirá seguir pautas , seguir brechas en el conocimiento ò incluso transformarlo ò dar origen. Ya que las incongruencias ó aciertos de estas investigaciones puede ser guías motivadoras de la investigación, e incluso pueden permitir surgir nuevas ideas en otro contexto, marco y realidad.





Justificacion


Expresar las razones por las cuales se va a realizar el trabajo, y los beneficios que se espera obtener del mismo.





variables
las variables son unos elementos que se utilizan para contener datos de distintos tipos: números, letras, palabras, textos, valores lógicos, etc. El valor contenido en una variable puede cambiar a lo largo de la ejecución de un programa. ...






Hipotesis

Planteamiento inicial cuya validez ha de ser confirmada por la experimentación o el razonamiento.





Objetivos

Especificar las acciones a realizar para probar la hipótesis planteada.





lafer lafer 17/01/2008 a las 19:02
Jeissy Linette Martínez Rodríguez  No. 17 4to técnico  Procedimiento para la elaboración de un proyecto 
Los elementos para plantear un problema son tres y están relacionados entre si y son las preguntas de la investigación, los objetivos y la justificación del estudio.

El planteamiento del problema de la investigación es la delimitación clara y precisa del objeto de la investigación que se realiza por medio de preguntas, lecturas, encuestas pilotos, entrevistas, etc.  La función del planteamiento del problema consiste en revelarle al investigador si su proyecto de investigación es viable, dentro de sus tiempos y recursos disponibles.
 La delimitación se realiza mediante 5 pasos a saber: 
·        La delimitación del objeto en el espacio físico-geográfico La delimitación en el tiempo.
·        La delimitación precisando el significado de sus principales conceptos, mediante el análisis semántica, mediante el uso de enciclopedias y diccionarios especializados.
·        La selección del problema que será objeto de la investigación. La formulación interrogativa del problema de la investigación.
·         La formulación de oraciones tópicas.
·        La determinación de los recursos disponibles   Convengamos que investigar significa tener interés o deseo de conocer, de saber. Sin embargo las maneras de cómo se conecta el investigador con el tema pueden ser muy variadas y pueden contener muchos matices.
Definir los siguientes conceptos: Planteamiento del problema
Cuando una persona se ve abocada a la realización de una investigación y en especial de un proyecto, su mayor preocupación es definir el tema, de esta decisión depende la conclusión pronta ò tardía de la investigación, pero como se toma esta decisión, que esta influenciada por los aspectos intrínsicos y extrínsecos.
Para la elaboración de un problema podemos guiarnos de las siguientes preguntas:                                
¿Es de interés el tema?, ¿Existe información sobre ese fenómeno ò similar?, ¿Quien centraliza esa información? ¿Que resultados obtuvieron anteriormente? ¿Es un trabajo inédito?
El punto de partida para la investigación es elegir el tema ò problema , es establecer mediante una observación, cual es la duda o la falta de conocimiento existente , en la actualidad los investigadores tienen a originar sus ideas creativas en la simple observación de la realidad en la que vive, en la revisión critica y lógica de trabajos similares ó diferentes al que desea realizar.
Hipótesis
Planteamiento inicial cuya validez ha de ser confirmada por la experimentación o el razonamiento, para ser aprobada o refutada. 
Justificación
Expresar las razones por las cuales se va a realizar el trabajo, y los beneficios que se espera obtener del mismo.
 Variables Las variables son unos elementos que se utilizan para contener datos de distintos tipos: números, letras, palabras, textos, valores lógicos, etc.  El valor contenido en una variable puede cambiar a lo largo de la ejecución de un programa.



Objetivos
Especificar las acciones a realizar para probar la hipótesis planteada, obteniendo así una información veras  la cual sea útil para nuestro conocimiento.
Linette Martinez Linette Martinez 17/01/2008 a las 22:05
Jeissy Linette Martínez Rodríguez No. 17 4to técnico, Materia: multimedia  ¿Que significa Multimedia?
Es un término que se aplica a cualquier objeto que usa simultáneamente diferentes formas de contenido informativo como texto, sonido, imágenes, animación y video para informar o entretener al usuario. También se puede calificar como multimedia a los medios electrónicos (u otros medios) que permiten almacenar y presentar contenido multimedia. Multimedia es similar al empleo tradicional de medios mixtos en las artes plásticas, pero con un alcance más amplio. Se habla de multimedia interactiva cuando el usuario tiene cierto control sobre la presentación del contenido, como qué desea ver y cuándo desea verlo.  Hipermedia puede considerarse como una forma especial de multimedia interactiva que emplea estructuras de navegación más complejas que aumentan el control del usuario sobre el flujo de la información.
 Historia de la Multimedia: MULTIMEDIA (WORLD WIDE WEB) Apareció por fin el World Wide Web, la Gran Telaraña Mundial (Magna Maraña Mundial, traducción poco exacta pero que imita al nombre original). Aquí ya podemos hablar realmente de Multimedia. Como en casi todo, la revolución multimedia empezó poco a poco. Evidentemente, todo está relacionado, y también los ordenadores eran cada vez más potentes, y cada vez hay más usuarios con ordenadores domésticos. Todos conocemos la Web, así que no vamos a explicar en qué consiste. Incluso los nuevos usuarios que se están "enganchando" a la red no conciben Internet fuera de un entorno gráfico.  Investiga el papel de la Multimedia en el computador:
El término Multimedia en el mundo de la computación

es la forma de presentar información que emplea una combinación de texto, sonido,

imágenes, vídeo y animación. Más comunes podemos mencionar juegos, programas de aprendizaje y material de referencia.
La mayoría de las aplicaciones multimedia incluyen asociaciones predefinidas

conocidas como hipervínculos o enlaces, que permiten a los usuarios moverse

por la información de modo intuitivo.
La conectividad que proporcionan los hipertextos hace que los programas multimedia no sean presentaciones estáticas con imágenes y sonido, sino una experiencia interactiva infinitamente variada e informativa.
Las aplicaciones multimedia son programas informáticos, que suelen estar almacenados en CD-ROMs y claro que pueden residir en páginas de Web.
La vinculación de información mediante enlaces se consigue mediante programas o lenguajes informáticos            especiales como el HTML empleado para crear páginas web.
Las aplicaciones multimedia suelen necesitar más memoria y capacidad de proceso que la misma información representada exclusivamente en forma de texto.
Una computadora multimedia también necesita memoria adicional para ayudar al CPU a efectuar cálculos y permitir la representación de complejos gráficos en

la pantalla. Además necesita un disco duro de alta capacidad para almacenar

y recuperar información multimedia, así como una unidad de cd-rom o acceso al

web para obtener los archivos necesarios.
 PROGRAMA MULTIMEDIA
Tomando conciencia de la importancia del uso del computador como herramienta de apoyo en la enseñanza, se decidió la realización de un programa multimedia, siguiendo la metodología expuesta por Dick y Carey citada por Fenrich (1997), que reuniera de manera sistemática y organizada toda la información sobre las operaciones unitarias absorción y extracción líquido–líquido, básicas en la formación de un ingeniero químico. Se hizo uso de tres paquetes computacionales: Visual Basic 6.0, para realizar los programas de cálculo, Flash 5.0, para crear las animaciones y Director 8.0, para ensamblar toda la aplicación multimedia. El módulo se estructuró de manera sencilla y con una interfaz agradable para que el usuario pudiera tener un acceso fácil y ameno. Se espera que el módulo de enseñanza se convierta en una herramienta de apoyo para profesores y estudiantes, contribuyendo así al mejoramiento de la educación superior.

Anónimo 17/01/2008 a las 22:17
Jeissy Linette Martínez Rodríguez No. 17 4to técnico Procesadores de textos HistoriaProcesamiento de textos no nación de la tecnología informática. Se desarrolló de las necesidades de escritores más bien que de las de matemáticos, aunque más adelante se combinara con el campo de las computadoras. La historia del procesamiento de textos es la historia de la automatización gradual de los aspectos físicos de la escritura y la edición, y el refinamiento de la tecnología para ponerla a disposición los usuarios individuales y corporativos. La invención de la imprenta y de los tipos móviles en el final de la edad media fue el paso inicial en esta automatización. Pero el mayor avance desde la escritura manual lo fue la máquina de escribir. Henry Mill, ingeniero inglés de principios del siglo XVII, es considerado su inventor. El hecho de que hoy casi no se sabe nada sobre su invento es evidencia de su carencia del éxito.

Christopher Latham Sholes, con la ayuda de dos colegas, inventó la primera máquina de escribir aceptada, en 1867. Comenzó a comercializarse en 1874, por una compañía de fabricación de armas, llamada Remington & Sons, aunque esta información es todavía improbable La desventaja principal de este modelo era que imprimía en la superficie inferior del rodillo, de modo que el mecanógrafo no podía ver su trabajo hasta que había acabado. La aceptación de la máquina de escribir fue lenta al principio, pero se facilitó durante los años próximos gracias a varias mejoras. Éstas incluían: la tecla de mayúsculas, que permitió mecanografiar letras capitales y minúsculas con las mismas teclas (1878); impresión en el lado superior del rodillo (1880); y el tabulador, permitiendo el ajuste de los márgenes (1897). Thomas Edison patentó una máquina de escribir eléctrica en 1872, pero el primer modelo realizable no fue introducido hasta los años 20. En los años 30, IBM introdujo una versión más refinada, la IBM Electromatic. "Aumentó grandemente las velocidades de escritura y ganó rápidamente la aceptación en la comunidad de negocios." En 1964 IBM desarrolló la MT/ST (máquina de escribir magnética de Tape/Selectric), que combinó las características del Selectric (una bola con los tipos imresos) con una de cinta magnética. La cinta magnética era el primer medio de almacenaje reutilizable para la información mecanografiada. Con esto, por primera vez, el material mecanografiado podía ser corregido sin tener que escribir de nuevo el texto entero a máquina. En la cinta, la información se podía almacenar, y usar de nuevo, corregir, reimprimir tantas veces como fueran necesarias, y después borrar y reutilizar para otros proyectos. Este desarrollo marcó el principio del procesamiento de textos como         se  conoce       hoy.



También introdujo el procesamiento de textos como una idea y concepto definidos.  El           término primero fue utilizado en       la comercialización de la IBM del MT/ST como "máquina de procesamiento" de textos. Era una traducción del término alemán textverabeitung, acuñado a finales de los años 50 por Ulrich Steinhilper, ingeniero de la IBM. Que lo utilizó como término más exacto para referirse al acto de mecanografiar. La IBM lo redefinió "para describir maneras electrónicas de manejar un sistema estándar de actividades de la oficina  componiendo, revisando, imprimiendo, y archivando un documento escrito." En 1969 IBM introdujo la MagCards, tarjetas magnéticas que se insertaban en una caja unida a la máquina de escribir y grababan el texto mientras que era mecanografiado. Las tarjetas se podían entonces utilizar para buscar y reimprimir el texto. Éstos eran útiles sobre todo a las compañías que tenían que enviar gran cantidad de cartas. Sin embargo, solamente se podía almacenar un valor aproximado de una página en cada tarjeta.

En 1972 Lexitron y Linolex desarrollaron un sistema similar de procesamiento de textos, pero incluyeron las pantallas de visualización y los cassettes de cinta para el almacenaje. Con la pantalla, el texto podría ser incorporado y ser corregido sin tener que producir una copia dura. La impresión podría ser retrasada hasta que el escritor estuviese satisfecho con el material.  El disquete marcó una nueva etapa en la evolución de los medios de almacenaje. Desarrollado por IBM a principios de los años 70 para el uso en la informática, pronto fue adoptada por la industria del procesamiento de textos. Vydec, en 1973, parece haber sido el primer fabricante que produjera un sistema de procesamiento de textos usando los disquetes para el almacenamiento. Los medios de almacenamiento anteriores podían guardar solamente una o dos páginas de texto, pero los primeros discos eran capaces de almacenar 80 a 100 páginas. Este aumento de la capacidad de memoria permitió la fácil creación y edición de documentos de páginas múltiples sin la necesidad de cambiar el medio en que se almacenaban los datos. Importancia de los procesadores La importancia de estos radica en que es un software informático destinado a la creación y edición de documentos de texto. Los procesadores de texto brindan unas u otras posibilidades según la aplicación de que se disponga. Como regla general básica, todos los procesadores de texto pueden trabajar con distintos formatos de párrafo, tamaño y orientación de las fuentes, efectos de formato, además de contar con las propiedades de poder cortar y copiar texto, fijar espacio entre líneas y entre párrafos, alinear párrafos, establecer sangrías y tabulados, crear y modificar estilos, activar presentaciones preliminares antes de la impresión o visualizar las páginas editadas. Los procesadores de texto incorporan desde hace algunos años también correctores automáticos de ortografía y gramática así como diccionarios multilingües y de sinónimos que facilitan sobremanera la labor de redacción.






Descripción de los procesadores de textos  
MICROSOFT WORD: De todos los procesadores de texto conocidos hasta el momento, el del paquete Microsoft Office se ha convertido en poco menos que un estándar de referencia casi obligada, dado el elevado porcentaje de usuarios que lo han instalado en su ordenador y lo utilizan.


LOTUS WORD PRO:
Una de las alternativas más populares a Microsoft Word es este procesador de textos, incluido en el paquete de software de escritorio de Lotus. Para gustos se pintan colores, pero lo cierto es que los usuarios que se decanten por este producto no estarán haciendo una mala elección.                  

WORD PERFECT
: No podía faltar el tercero en discordia, que en su día llegó a ser el   más popular de su género entre los usuarios, hasta mediados de los noventa. El procesador de textos de la suite de Corel presenta un despliegue de innovadoras características que demuestran el interés por parte de sus promotores en volver a hacer de este programa un producto puntero capaz de competir en el mercado con Microsoft Word.  WORD PAD: Instalado por defecto en todas las versiones de los sistemas operativos de Windows, se le podría considerar el "hermano pequeño" de Microsoft Word. Es la opción ideal para aquellos usuarios que necesitan de forma esporádica un procesador con el que dar cierto estilo estético a sus escritos, sin buscar un acabado de apariencia profesional ni excesivas florituras ornamentales.

BLOCK DE NOTAS
: También presente por defecto en todas las instalaciones del sistema de Windows, independientemente de la versión, este programa se muestra como la opción ideal para usuarios austeros. Al tratarse de una aplicación de posibilidades reducidas, no tendrán que familiarizarse con un complejo entorno lleno de funciones que nunca van a utilizar. PARA MACINTOSH: Los promotores de procesadores de texto no han discriminado a los usuarios de Mac Os, ni mucho menos: la propia Microsoft se encarga de portar todas las versiones de Word a los ordenadores de la manzana.   
Anónimo 17/01/2008 a las 22:27
Stalin israel ecaño mora



Los Procesadores de Texto
Por definición, un procesador de texto es un software informático destinado a la creación y edición de documentos de texto. Los procesadores de texto brindan unas u otras posibilidades según la aplicación de que se disponga. Como regla general básica, todos los procesadores de texto pueden trabajar con distintos formatos de párrafo, tamaño y orientación de las fuentes, efectos de formato, además de contar con las propiedades de poder  cortar y copiar texto, fijar espacio entre líneas y entre párrafos, alinear párrafos, establecer sangrías y tabulados, crear y modificar estilos, activar presentaciones preliminares antes de la impresión o visualizar las páginas editadas.  Los procesadores de texto incorporan desde hace algunos años también correctores automáticos de ortografía y gramática así como diccionarios multilingües y de sinónimos que facilitan sobremanera la labor de redacción. Origen y Evolución

El procesamiento de textos no nación de la tecnología informática. Se desarrolló de las necesidades de escritores más bien que de las de matemáticos, aunque más adelante se combinara con el campo de las computadoras. La historia del procesamiento de textos es la historia de la automatización gradual de los aspectos físicos de la escritura y la edición, y el refinamiento de la tecnología para ponerla a disposición los usuarios individuales y corporativos. La invención de la imprenta y de los tipos móviles en el final de la edad media fue el paso inicial en esta automatización. Pero el mayor avance desde la escritura manual lo fue la máquina de escribir. Henry Mill, ingeniero inglés de principios del siglo XVII, es considerado su inventor. El hecho de que hoy casi no se sabe nada sobre su invento es evidencia de su carencia del éxito.

Christopher Latham Sholes, con la ayuda de dos colegas, inventó la primera máquina de escribir aceptada, en 1867. Comenzó a comercializarse en 1874, por una compañía de fabricación de armas, llamada Remington & Sons, aunque esta información es todavía improbable La desventaja principal de este modelo era que imprimía en la superficie inferior del rodillo, de modo que el mecanógrafo no podía ver su trabajo hasta que había acabado.La aceptación de la máquina de escribir fue lenta al principio, pero se facilitó durante los años próximos gracias a varias mejoras. Éstas incluían: la tecla de mayúsculas, que permitió mecanografiar letras capitales y minúsculas con las mismas teclas (1878); impresión en el lado superior del rodillo (1880); y el tabulador, permitiendo el ajuste de los márgenes (1897). Thomas Edison patentó una máquina de escribir eléctrica en 1872, pero el primer modelo realizable no fue introducido hasta los años 20. En los años 30, IBM introdujo una versión más refinada, la IBM Electromatic. "Aumentó grandemente las velocidades de escritura y ganó rápidamente la aceptación en la comunidad de negocios."En 1964 IBM desarrolló la MT/ST (máquina de escribir magnética de Tape/Selectric), que combinó las características del Selectric (una bola con los tipos imresos) con una de cinta magnética. La cinta magnética era el primer medio de almacenaje reutilizable para la información mecanografiada. Con esto, por primera vez, el material mecanografiado podía ser corregido sin tener que escribir de nuevo el texto entero a máquina. En la cinta, la información se podía almacenar, y usar de nuevo, corregir, reimprimir tantas veces como fueran necesarias, y después borrar y reutilizar para otros proyectos. Este desarrollo marcó el principio del procesamiento de textos como se conoce hoy.

También introdujo el procesamiento de textos como una idea y concepto definidos. El término primero fue utilizado en la

comercialización de la IBM del MT/ST como "máquina de procesamiento" de textos. Era una traducción del término alemán textverabeitung, acuñado a finales de los años 50 por Ulrich Steinhilper, ingeniero de la IBM. Que lo utilizó como término más exacto para referirse al acto de mecanografiar. La IBM lo redefinió "para describir maneras electrónicas de manejar un sistema estándar de actividades de la oficina -- componiendo, revisando, imprimiendo, y archivando un documento escrito."En 1969 IBM introdujo la MagCards, tarjetas magnéticas que se insertaban en una caja unida a la máquina de escribir y grababan el texto mientras que era mecanografiado. Las tarjetas se podían entonces utilizar para buscar y reimprimir el texto. Éstos eran útiles sobre todo a las compañías que tenían que enviar gran cantidad de cartas. Sin embargo, solamente se podía almacenar un valor aproximado de una página en cada tarjeta.

En 1972 Lexitron y Linolex desarrollaron un sistema similar de procesamiento de textos, pero incluyeron las pantallas de visualización y los cassettes de cinta para el almacenaje. Con la pantalla, el texto podría ser incorporado y ser corregido sin tener que producir una copia dura. La impresión podría ser retrasada hasta que el escritor estuviese satisfecho con el material.

El disquete marcó una nueva etapa en la evolución de los medios de almacenaje. Desarrollado por IBM a principios de los años 70 para el uso en la informática, pronto fue adoptada por la industria del procesamiento de textos. Vydec, en 1973, parece haber sido el primer fabricante que produjera un sistema de procesamiento de textos usando los disquetes para el almacenamiento. Los medios de almacenamiento anteriores podían guardar solamente una o dos páginas de texto, pero los primeros discos eran capaces de almacenar 80 a 100 páginas. Este aumento de la capacidad de memoria permitió la fácil creación y edición de documentos de páginas múltiples sin la necesidad de cambiar el medio en que se almacenaban los datos. Durante los diez años próximos muchas nuevas características fueron introducidas en el campo. Una innovación importante era el desarrollo de los programas del chequeo de la ortografía y de las listas de correo. Otro avance, introducido por Xerox en su Sistema de Información Estrella (Star Information System), permitieron el trabajar en más de un documento a la vez en la misma pantalla. Algunos programas ahora incluso incorporan las funciones de contabilidad y de inventario, combinando el procesamiento de textos con la informática y terminar así la unión del procesador de textos a la computadora. El campo combinado se conoce como tratamiento de la información.

El WORDSTAR, desarrollado por Micropro International, emergió como el estándar de la industria en paquetes de software, aunque otros, actualmente, lo sobrepasan en muchísimas características.

Hay más de sesenta sistemas completos del procesamiento de textos en el mercado, y más de treinta paquetes de software para el uso en computadoras, todos con diversas capacidades y demandas sobre su eficacia.



Editores de textoVale, es hora de explicar qué es un editor de texto y en qué se diferencia de un procesador de texto. Un editor de texto moderno se parece a un procesador de texto. Es el concepto usual de menús o iconos desplegables para funciones como abrir, grabar o cerrar archivos, buscar, sustituir, corrector ortográfico etcétera. Pero no tiene la funcionalidad tipográfica. El texto aparece en pantalla de forma nítida pero sin ánimo de pretender que represente el resultado final de la copia impresa del documento. Cuando se graba un documento se hace en forma de texto simple lo que significa generalmente en "ASCII" (American Standard Character-Set for Information Interchange -Standard Americano del Conjunto de Caracteres para el Intercambio de Información-). El código ASCII se compone de 128 caracteres (lo que normalmente se conoce como un conjunto de caracteres de "7 bits" ya que requiere 7 dígitos binarios para su codificación: dos elevado a siete resulta 128). Incluye los dígitos del 0 al 9, el alfabeto inglés tanto mayúsculas como minúsculas y un conjunto de caracteres especiales. ASCII es el mínimo común denominador de la comunicación digital. Un mensaje en código ASCII es "entendible" por cualquier ordenador del mundo. Si se envía un mensaje en este código, sin duda el receptor verá lo que se ha escrito. Por contra, cuando se graba un archivo de un procesador de texto contiene varios caracteres del "control", fuera del rango ASCII. Estos caracteres representan el formato que se ha aplicado (por ejemplo negritas o itálicas) además de varias clases de "material" interno relacionado con la mecánica del procesador de texto. No son universalmente inteligibles. Para entenderlos, se necesita una copia del procesador de texto con el que se creó el documento (o algún tipo de filtro conversor apropiado). Si se abre un archivo proveniente de un procesador de texto con un editor de texto se ve (además del texto o sus bits) un montón de "simbolitos extraños"; es el código binario de formato. Puesto que un editor de texto no introduce código binario de formato, si se desea representar estas aplicaciones tales como itálicas, se necesita introducir unas etiquetas. Es decir se teclean "anotaciones" (usando también ASCII) que dicen al programa tipográfico que cierto texto se ponga en itálicas. Por ejemplo para el programa tipográfico LaTeX (más abajo se darán más detalles) se teclearía \textit{lo que vaya a aparecer en itálicas}. Realmente si se usa un editor de texto diseñado para facilitar el "trabajo" de LaTeX no tendría que hacer esto por sí mismo. Se teclean cierto tipo de secuencias de control cortas, se selecciona de un menú o se hace clic sobre un icono, y la anotación deseada aparecerá; la forma de teclear un documento ASCII preparado para LaTeX no es muy diferente de lo que ocurre en un procesador de texto. Virtudes de ASCIIElegir componer un texto en código ASCII usando un editor de texto y formatearlo con un programa específico tiene otras ventajas adicionales. Portabilidad: como se dijo anteriormente, cualquiera, en un ordenador, puede leer el texto codificado incluso si no tiene medios de visualizarlo o imprimirlo. Por contra, un archivo del procesador de texto Polilla 9.0 es incomprensible para un receptor que no tenga el mismo tipo y versión de tu procesador -a no ser que el receptor sea capaz de extraer el texto de la basura binaria que lo circunda.- Esto también se aplica al autor cuando se considera el paso del tiempo. Puede ser dificultoso leer un archivo de Polilla 8.0 en Polilla 9.0 o viceversa, pero nunca tendrá ese problema en ASCII.Compacto: los archivos ASCII representa ideas y no un montón de códigos del procesador de texto. Para documentos pequeños, un archivo de procesador de texto puede ser incluso diez veces mayor que el correspondiente ASCII que contenga la misma información.Seguridad: la elección "editor de texto más tipógrafo" garantiza que no tendrá problemas de corrupción del archivo (a no ser que se sufra un daño en el disco duro o algo similar). El texto fuente siempre está allí, incluso si el programa tipógrafo falla por alguna razón. Si usa un procesador de texto y no ha tenido problemas de corrupción de archivo ¡está de suerte! El programa tipógrafoAhora pido un poco más de atención para el programa tipográfico. No entraré en detalles técnicos pero trataré de decir lo suficiente como para que tenga una idea sobre lo que estoy hablando. El programa de tipografía básico que tengo en mente se llama TeX -así, tal y como está escrito- y fue escrito por Donald Knuth de la Universidad de Stanford. TeX es gratuito (se descarga vía Internet desde muchos servidores) y está disponible para cualquier tipo de ordenador. (Puede también comprar un CDROM con el conjunto completo de archivos TeX por un precio pequeño). Knuth comenzó a trabajar en TeX en el 1977; en el 1990 anunció que no seguiría desarrollando el programa, no porque hubiera perdido interés sino porque ya era esencialmente perfecto. Está tan libre de errores como cualquier otro programa y hace un trabajo espléndido tipografiando cualquier tipo de documento desde texto simple a grandes fórmulas matemáticas.   Importancia de los procesadores de textosLos Sistemas de Información para Ejecutivos (EIS: Executive Information Systems), están dirigidos a apoyar el proceso de toma de decisiones de los altos ejecutivos de una organización, presentando información relevante y usando recursos visuales y de fácil interpretación, con el objetivo de mantenerlos informados.



Las principales características de los Sistemas de Información para Ejecutivos (EIS) son las siguientes:  Están diseñados para cubrir las necesidades específicas y particulares de la alta administración de la empresa. Esto implica que ejecutivos diferentes pueden requerir información o formatos de presentación distintos para trabajar en una compañía en particular. Lo anterior se debe a que los factores críticos del éxito pueden variar de un ejecutivo a otro. Extraen, filtran, comprimen y dan seguimiento a información crítica del negocio. El sistema debe contar con capacidad de manejar información que proviene de los Sistemas Transaccionales de la empresa y/o de fuentes externas de información. Esta información externa puede provenir de bases de datos externas, periódicos y cartas electrónicas de la industria, entre otros; todo esto en temas tales como nuevas tecnologías, clientes, mercados y competencia, por mencionar algunos.

Implica que los ejecutivos puedan interactuar en forma directa con el sistema sin el apoyo o auxilio de intermediarios. Esto puede representar un reto importante, ya que muchos ejecutivos se resisten a utilizar en forma directa los recursos computacionales por el temor a cambiar. Es un sistema desarrollado con altos estándares en sus interfases hombre-máquina, caracterizado por gráficas de alta calidad, información tabular y en forma de texto. El protocolo de comunicación entre el ejecutivo y el sistema permite interactuar sin un entrenamiento previo. Pueden acceder a información que se encuentra en línea, extrayéndose en forma directa de las bases de datos de la organización. Esta característica del EIS permite al ejecutivo penetrar en diferentes niveles de información. Por ejemplo, puede conocer las ventas por país, por zona geográfica, por cliente y por línea de producto, penetrando a su gusto en los niveles internos y más detallados de la información en caso necesario. El sistema esta soportado por elementos especializados de hardware, tales como monitores o videos de alta resolución y sensibles a; tacto, ratón e impresoras con tecnología avanzada. Es importante señalar que en muchas ocasiones los términos Sistemas de Información para Ejecutivos (EIS) y Sistemas de Soporte para Ejecutivos (ESS: Executive Support Systems) son utilizados como sinónimos. Sin embargo, las siguientes características adicionales deben estar presentes para considerar a un EIS: Contempla las facilidades de comunicación electrónica, tales como correo electrónico de voz y datos, teleconferencia y procesadores de texto. Capacidades de análisis de datos, tales como hoja electrónica de cálculo, lenguajes especializados de consulta que utilicen comandos como el SELECT, JOIN y PROJECT.Esta capacidad puede extenderse a tener interfases con los típicos DSS. Herramientas para la organización personal del ejecutivo, tales como calendario, agenda y tarjetero electrónico.    Describir los procesadores de Textos Los procesadores de textos son uno de los primeros tipos de aplicaciones que se crearon para las computadoras personales. Originalmente, los procesadores sólo producían texto, actualmente los formatos que emplean (DOC, RTF, etc.) permiten incorporar imágenes, sonidos, videos, etc.Los procesadores de texto más conocidos son NotePad, WordPad y Word de Microsoft. También son destacables el OpenOffice, WordPerfect, KWord, etc.Actualmente la mayoría de los procesadores de texto son del tipo WYSIWYG (por ejemplo, los editores web).Los componentes o funciones habituales que forman parte de los procesadores de textos son: el cursor, editar, cortar, pegar, copiar, borrar, insertar, buscar, reemplazar, seleccionar e imprimir.En tanto, en procesadores de textos más avanzados, en general, cuentan con los elementos: justificar, las plantillas, la herramienta de ortografía, la selección, el formato de texto, márgenes, tablas, gráficos, hojas de estilos, fuentes, espaciados, etcLos procesadores de texto brindan unas u otras posibilidades según la aplicación de que se disponga. Como regla general básica, todos los procesadores de texto pueden trabajar con distintos formatos de párrafo, tamaño y orientación de las fuentes, efectos de formato, además de contar con las propiedades de poder cortar y copiar texto, fijar espacio entre líneas y entre párrafos, alinear párrafos, establecer sangrías y tabulados, crear y modificar estilos, activar presentaciones preliminares antes de la impresión o visualizar las páginas editadas. Los procesadores de texto incorporan desde hace algunos años también correctores automáticos de ortografía y gramática así como diccionarios multilingües y de sinónimos que facilitan sobremanera la labor de redacción
Bombardero Bombardero 18/01/2008 a las 03:27
Stalin israel escaño mora



JUSTIFICACIÓN DE LA INVESTIGACIÓN
 La Auditoria Integral es el Examen Sistemático objetivo que se aplica en la Evaluación, en los sistemas administrativos para determinar la razonabilidad en los gastos públicos, de conformidad a las Normas Legales Vigentes en un periodo determinado.Con esta investigación pretendemos mejorar la Organización Administrativa en los sistemas administrativos de las Unidades de Gestión Educativa. La historia nos demuestra a nivel mundial y en el caso específico de nuestro país y departamento que los Sistemas Administrativos en la Administración Pública, viene careciendo en el fortalecimiento de los Controles Internos, el cual genera el incremento de actos de corrupción en forma institucionalizada como consecuencia de la política gubernamental y los dispositivos legales vigentes, existentes. Nos permitirá identificar la relación existente entre el fortalecimiento de los Sistemas Administrativos a través de la aplicación de procesos y técnicas de Auditoria Gubernamental. El producto de la presente investigación permitirá establecer mecanismos a fin de efectuar una eficiente evaluación de los actos de corrupción y a partir de ella tomar las medidas correctivas necesarias o acciones con posterioridad. Mediante el trabajo se contribuye en el desarrollo de nuevos conocimientos relacionado al tema de corrupción versus fortalecimiento de Sistemas Administrativos. Existe un crecimiento alarmante a todo nivel de la corrupción en la Administración Pública. Existencia del desarrollo del burocratismo. JUSTIFICACIÓN METODOLÓGICA La ejecución de la Auditoria Integral y su relación con los controles internos, obedece a una serie de procedimientos, técnicas específicas, (instrumentos como encuesta, entrevista, modelos matemáticos) que han de servir para el aporte para la conclusión de la presente investigación.MARCO TEÓRICOBASES TEÓRICAS AUDITORÍA INTEGRAL: CONCEPTOPermite unificar todos los tipos de Auditoria, considerando los aspectos que permitan evaluar el desempeño institucional de manera objetiva en un periodo de tiempo definido. El propósito central de la Auditoria Integral, es establecer las recomendaciones que permita superar las deficiencias halladas, como consecuencia de la evaluación efectuada, según Palomino.PLANEAMIENTOSignifica desarrollar una estrategia general y establecer un enfoque apropiado respecto a la naturaleza, oportunidad y alcance de la auditoria. El auditor formula su plan para llevar a cabo el trabajo de auditoria de modo eficiente, eficaz y oportunoComprensión de las operaciones de la entidadLa comprensión de las operaciones de la entidad por auditar, constituye un requisito fundamental para facilitar el desempeño de una auditoria efectiva y eficiente, así como para brindar apoyo apropiado a la gestión de la entidad. Esta comprensión se refiere al entendimiento de las operaciones de la entidad por examinar, su naturaleza, antecedentes, tamaño, organización, objetivos, función principal, estrategias, riesgos, ambiente de control, y controles internos. (Ver sección 115, Parte II y sección 100 de la Guía de planeamiento para la auditoria gubernamental).Procedimientos de revisión analíticaLos procedimientos de revisión analítica comprenden la aplicación de comparaciones, cálculos, indagaciones, inspecciones y observaciones, para efectuar el análisis y desarrollo de expectativas, respecto a las relaciones entre los datos financieros y de operación, con el objeto de compararlos con los saldos de cuentas o clases de transacciones que se hayan registrado. Tales procedimientos se basan en el supuesto de que existen relaciones entre los datos y que continuarán existiendo, en ausencia de información que evidencie lo contrario. (Ver sección 120, Parte II y sección 120 de la Guía de planeamiento para la auditoria gubernamental).Diseño y estimación de la materialidadLa materialidad representa la magnitud de una omisión o error de una partida en un estado financiero que, a la luz de las circunstancias que la rodean, hacen probable que el juicio de una persona razonable basado en la información, podría haber sido cambiado o ser influenciado por la inclusión o corrección de éstas. El auditor debe estimar la materialidad en relación a los elementos de los estados financieros básicos, el que sea más significativo y, aplicar su criterio para determinar el elemento apropiado de los estados financieros que será utilizado como base material. (Ver sección 125, Parte II).Comprensión de la estructura de control interno, evaluación de riesgos y memorándum de planeamiento.Se denomina estructura de control interno al conjunto de planes, métodos, procedimientos y otras medidas, incluyendo la actitud de la dirección de una entidad, para ofrecer seguridad razonable respecto a que están lográndose los objetivos del control interno. El control interno discurre por cinco elementos, los que se integran en el proceso de gestión y operan en distintos niveles de efectividad y eficiencia. Tales elementos son los siguientes:Ambiente de control interno . (Ver sección 155, Parte II).Sistema de contabilidad. (Ver sección 160, Parte II).Procedimientos de control. (Ver sección 165, Parte II).Función de auditoria interna. (Ver sección 170, Parte II).Ambiente SIC (sistema de información computarizada). (Ver sección 175, Parte II).Mediante la comprensión de los elementos conformantes de la estructura de control interno, puede evaluarse el riesgo inherente y el riesgo de control a nivel de cuentas; después de lo cual es elaborado el memorándum de planeamiento(también denominado plan general de auditoria), el cual resume la información reunida durante el curso de la fase de planeamiento; después de los cual es elaborado el correspondiente programa de auditoria. (Ver sección 150, Parte II y de sección 130 a 170 de la Guía de planeamiento para la auditoria gubernamental).EJECUCIÓN DE AUDITORÍASi al preparar el correspondiente memorándum de planeamiento, el auditor decide confiar en los controles, generalmente, efectuamos pruebas de controles y, según los casos, realiza pruebas, consistentes en pruebas sustantivas, procedimientos analíticos o una combinación de ambos. Para arribar a la conclusión de que alcance de la auditoria fue suficiente y los estados financieros no tienen errores materiales, deben considerarse factores cuantitativos o cualitativos al evaluar los resultados de las pruebas y los errores detectados al realizar la auditoria. Parte del procedimiento implica la revisión de estados financieros, para determinar si tales estados, en conjunto, son coherentes con la información obtenida y fueron presentados apropiadamente. (Ver sección 210 a 290, Parte II).INFORMEAntes de concluir la auditoria se efectúa la revisión de los eventos subsecuentes, se obtiene la carta de representación de la administración, se prepara el memorándum de conclusiones y comunican los hallazgos de auditoria a la entidad (Ver sección 110 a sección 190 de la Guía para elaboración del informe de auditoria gubernamental). Finalmente, es elaborado el informe de auditoria financiera conteniendo:Dictamen sobre los estados financieros (Ver sección 360, Parte II); Informe sobre la información financiera para la Cuenta General de la República (Ver sección 360, Parte II); Informe sobre la estructura de control interno de la entidad (Ver sección 370, Parte II); y, Conclusiones, observaciones y recomendaciones de control interno financiero resultantes de la auditoria. (Ver sección 380, Parte II). SEGUIMIENTO Y EVALUACIÓN DE MEDIDAS CORRECTIVASSon procedimientos para la verificación y seguimiento de la implementación de las recomendaciones contenidas en los informes resultantes de las acciones de control efectuadas por los órganos conformantes del Sistema Nacional de Control y de las Sociedades de Auditoria designadas y contratadas.De la misma forma establece las pautas para el seguimiento de los procesos judiciales derivados de las acciones de control efectuadas por los órganos conformantes del Sistema Nacional de Control y de las Sociedades de Auditoria designadas y contratadas.Es de responsabilidad de los Titulares de las Entidades, Jefes de los Órganos de Auditoria Interna, Jefes de las unidades orgánicas de la Contraloría General de la República; y de las Sociedades de Auditoria designadas y contratadas; su incumplimiento genera responsabilidad administrativa.CONTROL INTERNOEs un proceso continuo realizado por la dirección, gerencia y, el personal de la entidad; para proporcionar seguridad razonable, respecto a sí están lográndose los objetivos siguientes:Promover la efectividad, eficiencia y economía en las operaciones y, la calidad en los servicios que debe brindar cada entidad pública;Proteger y conservar los recursos públicos contra cualquier pérdida, despilfarro, uso indebido, irregularidad o acto ilegal;Cumplir las leyes, reglamentos y otras normas gubernamentales; y,Elaborar información financiera válida y confiable, presentada con oportunidad.Promover la efectividad, eficiencia y economía en las operaciones y la calidad en los servicios que debe brindar cada entidad pública. Este objetivo se refiere a los controles internos que adopta la administración para asegurar que se ejecuten las operaciones, de acuerdo a criterios de efectividad, eficiencia y economía. Tales controles comprenden los procesos de planeamiento, organización, dirección y control de las operaciones en los programas, así como los sistemas de medición de rendimiento y monitoreo de las actividades ejecutadas.La efectividad tiene relación directa con el logro de los objetivos y metas programadas; la eficiencia se refiere a la relación existente entre los bienes o servicios producidos y los recursos utilizados para producirlos; en tanto que, la economía, se refiere a los términos y condiciones bajo los cuales se adquieren recursos físicos, financieros y humanos, en cantidad y calidad apropiada y al menor costo posible.El control de calidad en el sector público debe permitir promover mejoras en las actividades que desarrollan las entidades y proporcionar mayor satisfacción en el público, menos defectos y desperdicios, mayor productividad y menores costos en los servicios.Proteger y conservar los recursos públicos contra cualquier pérdida, despilfarro, uso indebido, irregularidad o acto ilegal. Este objetivo está relacionado con las medidas adoptadas por la administración para prevenir o detectar operaciones no autorizadas, acceso no autorizado a recursos o, apropiaciones indebidas que podrían resultar en pérdidas significativas para la entidad, incluyendo los casos de despilfarro, irregularidad o uso ilegal de recursos.Los controles para la protección de activos no están diseñados para cautelar las pérdidas derivadas de actos de ineficiencia gerencial, como por ejemplo, adquirir equipos innecesarios o insatisfactorios.Cumplimiento de leyes, reglamentos y otras normas gubernamentales. Este objetivo se refiere a que los administradores gubernamentales, mediante el dictado de políticas y procedimientos específicos, aseguran que el uso de los recursos públicos sea consistente con las disposiciones establecidas en las leyes y reglamentos, y concordante con las normas relacionadas con la gestión gubernamental.Elaborar información financiera válida y confiable, presentada con oportunidad. Este objetivo tiene relación con las políticas, métodos y procedimientos dispuestos por la administración para asegurar que la información financiera elaborada por la entidad es válida y confiable, al igual que sea revelada razonablemente en los informes. Una información es válida porque se refiere a operaciones o actividades que ocurrieron y que tiene las condiciones necesarias para ser considerada como tal; en tanto que una información confiable es aquella que brinda confianza a quien la utiliza.ESTRUCTURA DEL CONTROL INTERNOSe denomina estructura de control interno al conjunto de planes, métodos, procedimientos y otras medidas, incluyendo la actitud de la dirección de una entidad, para ofrecer seguridad razonable respecto a que están lográndose los objetivos del control interno. El concepto moderno del control interno discurre por cinco componentes y diversos elementos, los que se integran en el proceso de gestión y operan en distintos niveles de efectividad y eficiencia. Esto permite que los directores de las entidades se ubiquen en el nivel de supervisores de los sistemas de control, en tanto que los gerentes que son los verdaderos ejecutivos, se posicionen como los responsables del sistema de control interno, a fin de fortalecerlo y dirigir los esfuerzos hacia el logro de sus objetivos.Para operar la estructura de control interno se requiere la implementación de sus componentes, que se encuentran interrelacionados e integrados al proceso administrativo. Los componentes pueden considerarse como un conjunto de normas que son utilizadas para medir el control interno y determinar su efectividad, los que se describen a continuación:Ambiente de Control Interno Evaluación del Riesgo Actividades de Control GerencialSistema de información y comunicacionesActividades de Monitoreo Ambiente de Control InternoSe refiere al establecimiento de un entorno que estimule e influencie las tareas de las personas con respecto al control de sus actividades. Como el personal resulta ser la esencia de cualquier entidad, sus atributos constituyen el motor que la conduce y la base sobre la que todo descansa.El ambiente de control tiene gran influencia en la forma en que son desarrolladas las operaciones, se establecen los objetivos y estiman los riesgos. Igualmente, tiene relación con el comportamiento de los sistemas de información y con las actividades de monitoreo. Son elementos del ambiente de control, entre otros, integridad y valores éticos, estructura orgánica, asignación de autoridad y responsabilidad y políticas para la administración de personal. Evaluación del riesgoEl riesgo se define como la probabilidad de que un evento o acción afecte adversamente a la entidad. Su evaluación implica la identificación, análisis y manejo de los riesgos relacionados con la elaboración de estados financieros y que pueden incidir en el logro de los objetivos del control interno en la entidad. Estos riesgos incluyen eventos o circunstancias internas o externas que pueden afectar el registro, procesamiento y reporte de información financiera, así como las representaciones de la gerencia en los estados financieros. Son elementos de la evaluación del riesgo, entre otros, cambios en el ambiente operativo del trabajo, ingreso de nuevo personal, implementación de sistemas de información nuevos y reorganización en la entidad.La evaluación de riesgos debe ser responsabilidad de todos los niveles gerenciales involucrados en el logro de objetivos. Esta actividad de autoevaluación que practica la dirección debe ser revisada por los auditores internos para asegurar que los objetivos, enfoque, alcance y procedimientos han sido apropiadamente realizados. También esta autoevaluación debe ser revisado por los auditores externos en su examen anual. Actividades de control gerencialSe refieren a las acciones que realiza la gerencia y otro personal de la entidad para cumplir diariamente con las funciones asignadas. Son importantes porque en sí mismas implican la forma correcta de hacer las cosas, así como también porque el dictado de políticas y procedimientos y la evaluación de su cumplimiento, constituyen medios idóneos para asegurar el logro de objetivos de la entidad. Son elementos de las actividades de control gerencial, entre otros, las revisiones del desempeño, el procesamiento de información computarizada, los controles relativos a la protección y conservación de los activos, así como la división de funciones y responsabilidades. Sistema de Información y ComunicaciónEstá constituido por los métodos y procedimientos establecidos para registrar, procesar, resumir e informar sobre las operaciones financieras de una entidad. La calidad de la información que brinda el sistema afecta la capacidad de la gerencia para adoptar decisiones adecuadas que permitan controlar las actividades de la entidad.En el sector público el sistema integrado de información financiera debe propender al uso de una base de datos central y única, soportada por tecnología informática y telecomunicaciones, accesible para todos los usuarios de las áreas de presupuesto, tesorería, endeudamiento público y contabilidad gubernamental, en el nivel central y en el nivel operativo y, para los administradores gubernamentales.La comunicación implica proporcionar un apropiado entendimiento sobre los roles y responsabilidades individuales involucradas en el control interno de la información financiera dentro de una entidad.Actividades de MonitoreoRepresentan al proceso que evalúa la calidad del control interno en el tiempo y permite al sistema reaccionar en forma dinámica, cambiando cuando las circunstancias así lo requieran. Se orienta a la identificación de controles débiles, insuficientes o innecesarios y, promueve su reforzamiento.El monitoreo se lleva a cabo de tres formas: (a) durante la realización de actividades diarias en los distintos niveles de la entidad; (b) de manera separada por personal que no es el responsable directo de la ejecución de las actividades, incluidas las de control; y, (c) mediante la combinación de ambas modalidades.MARCO CONCEPTUAL EL ROL DEL AUDITOR EN LA LUCHA CONTRA LA CORRUPCIÓN EN LAS INSTITUCIONES PUBLICASEl Sr. Fred M. Siame, Auditor General de Zambia, mencionada en la Revista "OLACEF" considera que el rol del Auditor es el de proporcionarle servicios de Auditoria al Gobierno en todas las instancias del gobierno, a fin de promover la responsabilidad, economía, eficiencia y efectividad en la recolección, desembolso y utilización de los Fondos y otros recursos, para el beneficio de la sociedad, en ese sentido procura satisfacer este rol estimulando la administración honesta y eficiente y la plena responsabilidad en el seno de todo gobierno, además la aplicación de pruebas y revisiones de Auditoria contribuyen a las revelaciones de riesgo en las cuales se les exige a la Gerencia de las Entidades Auditadas, que tomen acciones correctivas. Por lo tanto, el poder para luchar y combatir las prácticas corruptas descansa en la autoridad ejecutiva de una organización. En la estructura del gobierno, la autoridad ejecutiva se ejerce en dos niveles: el primero es el del gabinete, en la cual se establecen las políticas y prioridades y el segundo es el del servicio civil, el cual está encabezado por el Contralor General de la República en la aplicación de las políticas y en el logro de las metas establecidas, para el cumplimiento de sus obligaciones y revisar si la aplicación de los programas está acorde con las políticas y prioridades e intenciones del estado.Como sabemos la corrupción está presente en casi todos los países de todo el mundo, pues a diario informan los medios de comunicación sobre las prácticas corruptas que han sido descubiertas y que proporcionan evidencias de que este azote no se limita a los países en desarrollo, es mas severo en los países desarrollados. Por lo que la corrupción se produce debido a la falta de responsabilidad y transparencia por parte de los sistemas de integridad pública, como resultado existe la percepción general de que el servicio público ha perdido su rumbo, que muchos elementos del sector público son corruptos y que muchas de las firmas del sector privado que realizan con el sector público, también son corruptas. El público ve a los funcionarios y los funcionarios parecen verse a sí mismo, como si existieran, no para proporcionarle un servicio al público, sino como un cuerpo que no es responsable ante el público al que declara servir. Además es posible mencionar que el ambiente en el que el gobierno realiza sus transacciones contribuye a incrementar la corrupción. Un ambiente caracterizado por sistemas pobres de contaduría y administración financiera hace que los funcionarios se vuelvan susceptibles a las prácticas corruptas.El estado de la Economía, es otro factor que contribuye a incrementar la corrupción, se ha culpado a la pobreza de ser en gran medida responsable por el incremento y aumento de la corrupción, debido a que las personas tienen que sobrevivir y harán cualquier cosa que sea necesaria para garantizar que haya alimento en su mesa; sin embargo, esto no significa que si el pueblo es pobre, entonces es corrupto.Otra de la causa de la corrupción es la avaricia, esto se ve en casos en los que los individuos quieren "vivir por encima de sus recursos", en tales casos, los funcionarios quieren perpetuar sus costosas estilos de vida a expensas del público.los tipos de corrupción, establecida son: Conflicto de intereses, el cual se produce cuando un oficial se coloca incidentalmente en posición de beneficiarse de un acto oficial, esto podría incluir el otorgamiento de un contrato a una compañía en la cual el funcionario tenga un interés financiero; Soborno, cuando un funcionario acepta dinero o alguna otra compensación para que asuma un curso particular de acción o inacción. Este tipo de corrupción es raramente descubierto mediante las Auditorias, debido a la falta de pistas o evidencias de Auditoria, especialmente en los casos en que los sobornos se pagan en efectivo; gratificaciones ilegales, similares a los esquemas del soborno, salvo que no hay, necesariamente, la intención de influir en una decisión particular de negocios, estas también son difíciles de descubrir, debido a la falta de evidencias y Extorsión Económica, esta tiene lugar cuando un funcionario exige dinero o alguna otra compensación para tomar una decisión particular de negocios. CARACTERIZACIÓN DE LA CORRUPCIÓN EN EL PERÚLa magnitud de la corrupción de la última década en el Perú (que fue recién develándose rápidamente en el último año) no había podido ser adecuadamente analizada en su oportunidad o porque las categorías teóricas y enfoques existentes eran insuficientes (ver "Hacia una Sociología de la Corrupción" Olivera Mario, 1999) o porque los Rankings de corrupción que actualmente se utilizan a nivel internacional tenían serias limitaciones (por ejemplo el Perú estaba ubicado en 1999 - año muy álgido en la corrupción peruana- como tercer país menos corrupto de América Latina antecedido por Chile y Costa Rica). Aparte habían sí algunos avances interesantes como los del Banco Mundial sobre "la captura del Estado" (Helman, Jones y Kauffman, 2000) pero también quedaban cortos para analizar el caso peruano.Nos convencimos que el instrumental teórico que iniciáramos con "Hacia una Sociología de la Corrupción" (1999) y que continuáramos con "Relaciones Peligrosas. Legislación Desinstitucionalizadora y Corrupción en el Perú" (1999) nos ofrecía el adecuado marco teórico para el análisis. Tuvimos mayor convicción de ello cuando comprobamos que el sonado y espectacular descubrimiento de los "Vladivideos" confirmaba lo que en "Relaciones peligrosas" ya lo habíamos dicho y fundamentado sociológicamente: que en el Perú había corrupción de Alta Nocividad Social no sólo en lo administrativo sino inéditamente en lo normativo.En esta ocasión y como producto de la aplicación del instrumental teórico que hemos propulsado (y al que estamos haciendo referencia) ofrecemos algunas conclusiones con las que hemos aportado para el diagnóstico de la corrupción en el Perú. Son las siguientes:La corrupción en el Perú en la última década (1991-2000) llegó a ser SISTEMICA (1) es decir, es desde el poder político que se han instrumentalizado utilitariamente importantes espacios institucionales siendo concatenados para planes de reelección presidencial y para el enriquecimiento ilícito. Los espacios organizativo-institucionales instrumentalizados para el efecto fueron: el Parlamentario; el Judicial; el Militar; el Policial; El Electoral; el Aduanero; el Tributario; el Financiero; de Privatizaciones; de Renegociación de la deuda; de Contrataciones; de Telecomunicaciones; de Promoción de la Mujer y Desarrollo Humano.La corrupción en el Perú supuso la "Captura del Estado" (Hellman, Jones y Kauffman, 2000) pero no sólo como lo visualiza el Banco Mundial: de empresas privadas sobre el Estado, sino de una mafia político - delictiva sobre el Estado, la cual a su vez favoreció y se asoció con empresas privadas. Los involucrados en la corrupción de la última década llegaron a construir una RED de CORRUPCIÓN que entrelazó no sólo a los ámbitos institucionales del Estado sino que alcanzó a la clase política, a medios televisivos, a medios periodísticos y al sistema bancario - financiero. La red de corrupción tuvo como piedra angular y organismo de mando al Servicio de Inteligencia Nacional. El Núcleo Corruptor en la Red de Corrupción no solo propició la corrupción Administrativa de Alta Nocividad Social sino que promovió el desarrollo de la corrupción Normativa de Alta Nocividad Social alimentada por el afán particular de perpetuación en el poder. Esta Corrupción Normativa de Alta Nocividad Social también estuvo vinculada a Decretos de Urgencia que posibilitaron la exacción de los dineros del proceso de privatización de empresas. Denominamos "Corrupción Administrativa de alta nocividad social" al tipo de corrupción que se ha dado en áreas de administración y ejecución de normas gubernamentales y sociales. Afectó el cumplimiento de deberes de función claves para la sociedad y la moral social. En muchos casos estuvo relacionada a delitos graves o al crimen organizado; por otro lado denominamos "Corrupción Normativa de Alta Nocividad Social" al tipo de corrupción que se realizó en los niveles normativos y legislativos de la sociedad en su conjunto. Implicó la gestación de normas dolosas por intereses creados (crematísticos o de poder). Afectó las reglas de juego social así como intereses colectivos y/o la moral social objetiva. (Olivera, Mario 1999a). Las fuentes más importantes de acumulación y enriquecimiento de los involucrados en la red de corrupción fueron: las contrataciones y adquisiciones del estado - en especial armas-; el lavado y tranferencias a través del sistema financiero; el narcotráfico; y, las extorsiones.Durante la década de los noventa, llegó a darse en el Perú el llamado "poder infiscalizado" (Olivera, 1999b). También se entronizó el secreto como estilo de gobierno a raíz de la lucha antisubversiva. Denominamos poder infiscalizado a la "capacidad de alguien de imponer su voluntad a un grupo o una comunidad sin controles u obligación de responder por sus actos".En los espacios institucionales pueden llegar a tener a poder infiscalizado quienes detentan los poderes normativo y administrativo.El "poder infiscalizado" implica:La ausencia de mecanismos de participación de la población o de las colectividades en el control y fiscalización de la gestión del poder. La inacción y/o complicidad de la entidades y órganos fiscalizadores y de control. La ausencia de rendiciones de cuentas periódicas y públicas, por parte de funcionarios y directivos.En el caso del Perú, esta situación se dio claramente: el poder se ejerció a discreción sin rendición de cuentas, sin controles institucionales (estatales o de partidos) y con "cheques en blanco" para gobernar. El poder infiscalizado en el caso del Perú se incrementó porque el Congreso con aplastante mayoría gubernamental y sin concesiones a la minoría no intentó buscar ni tímidamente el equilibrio de poderes, ni fiscalizó el poder normativo que le delegó en varias oportunidades al Ejecutivo y menos se autofiscalizó en su propia función legisladora por sus compromisos con el Ejecutivo. A la postre no hubo equilibrio de poderes; no hubo autonomía del Poder Judicial ni del Ministerio Público; el Parlamento no cumplió con su misión fiscalizadora; la Contraloría de la República no ejerció a cabalidad sus funciones; no hubo participación de la población en las decisiones nacionales ni en la formulación de leyes, etc.Las principales MODALIDADES CONFORMANTES DE LOS TIPOS DE CORRUPCIÓN, que se han dado en el sistema de corrupción peruano (2) han sido:Narcocomplicidad (+ Narcotráfico abierto) Colaboración con el lavado de dinero. Colaboración con el tráfico ilícito de armas. Corrupción prebendalista (rentista) Utilización indebida de información privilegiada. Corrupción electoral. Formulación de leyes (Decretos de urgencia) a favor del tráfico de armas y otros. Formulación de leyes o normas que afectan las reglas de juego social, en función de intereses creados (reelección presidencial).A lo que se suman y/o engarzan las tradicionales figuras de corrupción contempladas en los Códigos Penales: Corrupción de funcionarios Cohecho Concusión Peculado Enriquecimiento ilícito. Tráfico de influencias. Malversación de fondos.La identificación de casos concretos de corrupción en estas modalidades nos permitieron inductivamente determinar los tipos de corrupción que se dan a nivel del gobierno y los ámbitos institucionales.Un soporte de la corrupción sistémico estatal que se dio en el Perú fue la corrupción "SISTEMÁTICO - INSTITUCIONAL" (3) que casi inveteradamente se venía dando en los ámbitos judicial, policial, militar, de aduanas, penitenciario, etc. Esta Corrupción Sistemático - Institucional fue encimada e instrumentalizada por la Corrupción Sistémica. El siguiente CUADRO nos permite visualizar los tipos y grados de corrupción a los que se llegó en el Perú: Culturalmente, la corrupción en el Perú ha estado relacionada al desarrollo de una "cultura de la viveza" (Olivera, 1999b) donde se valora a quien sabe aprovecharse de los "tontos" que creen en las normas y las respetan, lo cual está acompañado de la creencia, producto de casos de impunidad, que en la vida no triunfa el honrado sino el vivo. La cultura de la viveza conlleva una combinación de agilidad y oportunismo de decisiones con el cálculo racional y muchas veces planificado de ventajas a conseguir. Otro elemento cultural vinculado a lo político ha sido lo que denominamos "botinazgo" que es la predisposición de algunas agrupaciones políticas o sociales a aspirar a los cargos gubernamentales o de cualquier directiva organizacional para tomarlos y usufructuarlos como botín.Uno de los factores que han contribuido a la cultura de la viveza ha sido la relativización utilitaria de valores y normas realizada especialmente a través de los medios de comunicación de masas que por razones lucrativas privilegian contenidos de escándalo y violencia y movilidad social a como dé lugar sin el correlato de sanción moral, contenidos que afectan y rebajan valores humanos y sociales.EFECTOS DE LA CORRUPCIÓN EN LA ADMINISTRACIÓN PÚBLICACon relación a las necesidades públicas: la corrupción distrae cantidades ingentes de recursos destinados a salud, vivienda y educación, etc., reduciendo el crecimiento económico y la calidad de vida. En la estabilidad gubernamental: la corrupción gubernamental socava la confianza de la ciudadanía en las instituciones gubernamentales e impide el desarrollo democrático. Con relación a la probidad administrativa: el combatir ineficazmente la corrupción gubernamental promueve la multiplicación de malos ejemplos, cinismo y deshonestidad. En tal sentido las Instituciones fiscalizadoras: Contraloría General, Entidades Fiscalizadoras Superiores de Auditoria) son llamadas a constituirse en un frente de lucha contra la corrupción gubernamental en el mundo, es una acción prioritaria para lo cual las EFS deben contar con los siguientes elementos: Normativa, Cualidades del Auditor, Desarrollo organizativo y técnico, coordinación entre entidades Gubernamentales, la colaboración ciudadana y la divulgación del Informe de Auditoria.   HIPÓTESIS DE LA INVESTIGACIÓN HIPÓTESIS GENERAL LA AUDITORÌA INTEGRAL REALIZADOS A LOS SISTEMAS ADMINISTRATIVOS DE LAS UNIDADES DE GESTIÓN EDUCATIVA LOCALES FORTALECE LOS CONTROLES INTERNOS DE MANERA SIGNIFICATIVA 2006-2008. HIPÓTESIS ESPECÍFICAS El Planeamiento de Auditoria tiene una relación directa en los Controles Previos y Concurrentes de las Unidades de Gestión Educativa Locales 2006-2008. La Auditoria Integral influye directamente con la Estructura de Control Interno en las UGELs 2006-2008.La Auditoria Integral interviene directamente en los Controles concurrentes de las UGELs 2006-2008. IDENTIFICACIÓN Y CLASIFICACIÓN DE VARIABLES IDENTIFICACIÓN DE VARIABLESAUDITORÍA INTEGRALCONTROLES INTERNOS EN LAS UGELSCLASIFICACIÓN DE VARIABLESVARIABLE INDEPENDIENTEAUDITORÍA INTEGRALVARIABLE DEPENDIENTECONTROLES INTERNOS EN LAS UGELSVARIABLE INTERVINIENTEORGANO DE CONTROL INSTITUCIONAL OCI.ALCANCES Y LIMITACIONES DE LA INVESTIGACIÓN Somos concientes de las limitaciones que se presentan en este Trabajo de Investigación, así tenemos que el Investigador identifica primero el problema, revisa la literatura para ponerse al día con el conocimiento actual del tema a estudiar y diseña el esquema de investigación. En verdad el investigador va desarrollando su diseño de estudio a lo largo del periodo de planeamiento y por lo tanto se trata de un proceso continuo en cual suelen ocurrir, muy a menudo la revisión y el cambio. Debe tenerse en cuenta también que la simple determinación del diseño ideal para una investigación no es suficiente, pues existen muchas consideraciones prácticas al establecer lo que puede realmente hacerse. A veces en la revisión final del proyecto de investigación, el mismo problema debe ser delimitado con precisión en algunos aspectos. Las limitaciones prácticas de la metodología pueden constituir un factor en este caso. Otra limitación práctica la imponen los recursos financieros disponibles y la carencia de literatura especializada con respecto al problema.Un investigador puede verse restringido por la carencia de instrumentos de medición y los recursos para crear instrumentos, cuando no tiene a la mano loa adecuados. También puede estar la limitación en lo referente al procesamiento de datos y otros instrumentos que se requieren para analizar los resultados obtenidos. 
Bombardero Bombardero 18/01/2008 a las 03:29
Los Procesadores de TextoPor definición, un procesador de texto es un software informático destinado a la creación y edición de documentos de texto. Los procesadores de texto brindan unas u otras posibilidades según la aplicación de que se disponga. Como regla general básica, todos los procesadores de texto pueden trabajar con distintos formatos de párrafo, tamaño y orientación de las fuentes, efectos de formato, además de contar con las propiedades de poder  cortar y copiar texto, fijar espacio entre líneas y entre párrafos, alinear párrafos, establecer sangrías y tabulados, crear y modificar estilos, activar presentaciones preliminares antes de la impresión o visualizar las páginas editadas.  Los procesadores de texto incorporan desde hace algunos años también correctores automáticos de ortografía y gramática así como diccionarios multilingües y de sinónimos que facilitan sobremanera la labor de redacción. Origen y Evolución

El procesamiento de textos no nación de la tecnología informática. Se desarrolló de las necesidades de escritores más bien que de las de matemáticos, aunque más adelante se combinara con el campo de las computadoras. La historia del procesamiento de textos es la historia de la automatización gradual de los aspectos físicos de la escritura y la edición, y el refinamiento de la tecnología para ponerla a disposición los usuarios individuales y corporativos. La invención de la imprenta y de los tipos móviles en el final de la edad media fue el paso inicial en esta automatización. Pero el mayor avance desde la escritura manual lo fue la máquina de escribir. Henry Mill, ingeniero inglés de principios del siglo XVII, es considerado su inventor. El hecho de que hoy casi no se sabe nada sobre su invento es evidencia de su carencia del éxito.

Christopher Latham Sholes, con la ayuda de dos colegas, inventó la primera máquina de escribir aceptada, en 1867. Comenzó a comercializarse en 1874, por una compañía de fabricación de armas, llamada Remington & Sons, aunque esta información es todavía improbable La desventaja principal de este modelo era que imprimía en la superficie inferior del rodillo, de modo que el mecanógrafo no podía ver su trabajo hasta que había acabado.La aceptación de la máquina de escribir fue lenta al principio, pero se facilitó durante los años próximos gracias a varias mejoras. Éstas incluían: la tecla de mayúsculas, que permitió mecanografiar letras capitales y minúsculas con las mismas teclas (1878); impresión en el lado superior del rodillo (1880); y el tabulador, permitiendo el ajuste de los márgenes (1897). Thomas Edison patentó una máquina de escribir eléctrica en 1872, pero el primer modelo realizable no fue introducido hasta los años 20. En los años 30, IBM introdujo una versión más refinada, la IBM Electromatic. "Aumentó grandemente las velocidades de escritura y ganó rápidamente la aceptación en la comunidad de negocios."En 1964 IBM desarrolló la MT/ST (máquina de escribir magnética de Tape/Selectric), que combinó las características del Selectric (una bola con los tipos imresos) con una de cinta magnética. La cinta magnética era el primer medio de almacenaje reutilizable para la información mecanografiada. Con esto, por primera vez, el material mecanografiado podía ser corregido sin tener que escribir de nuevo el texto entero a máquina. En la cinta, la información se podía almacenar, y usar de nuevo, corregir, reimprimir tantas veces como fueran necesarias, y después borrar y reutilizar para otros proyectos. Este desarrollo marcó el principio del procesamiento de textos como se conoce hoy.

También introdujo el procesamiento de textos como una idea y concepto definidos. El término primero fue utilizado en la

comercialización de la IBM del MT/ST como "máquina de procesamiento" de textos. Era una traducción del término alemán textverabeitung, acuñado a finales de los años 50 por Ulrich Steinhilper, ingeniero de la IBM. Que lo utilizó como término más exacto para referirse al acto de mecanografiar. La IBM lo redefinió "para describir maneras electrónicas de manejar un sistema estándar de actividades de la oficina -- componiendo, revisando, imprimiendo, y archivando un documento escrito."En 1969 IBM introdujo la MagCards, tarjetas magnéticas que se insertaban en una caja unida a la máquina de escribir y grababan el texto mientras que era mecanografiado. Las tarjetas se podían entonces utilizar para buscar y reimprimir el texto. Éstos eran útiles sobre todo a las compañías que tenían que enviar gran cantidad de cartas. Sin embargo, solamente se podía almacenar un valor aproximado de una página en cada tarjeta.

En 1972 Lexitron y Linolex desarrollaron un sistema similar de procesamiento de textos, pero incluyeron las pantallas de visualización y los cassettes de cinta para el almacenaje. Con la pantalla, el texto podría ser incorporado y ser corregido sin tener que producir una copia dura. La impresión podría ser retrasada hasta que el escritor estuviese satisfecho con el material.

El disquete marcó una nueva etapa en la evolución de los medios de almacenaje. Desarrollado por IBM a principios de los años 70 para el uso en la informática, pronto fue adoptada por la industria del procesamiento de textos. Vydec, en 1973, parece haber sido el primer fabricante que produjera un sistema de procesamiento de textos usando los disquetes para el almacenamiento. Los medios de almacenamiento anteriores podían guardar solamente una o dos páginas de texto, pero los primeros discos eran capaces de almacenar 80 a 100 páginas. Este aumento de la capacidad de memoria permitió la fácil creación y edición de documentos de páginas múltiples sin la necesidad de cambiar el medio en que se almacenaban los datos. Durante los diez años próximos muchas nuevas características fueron introducidas en el campo. Una innovación importante era el desarrollo de los programas del chequeo de la ortografía y de las listas de correo. Otro avance, introducido por Xerox en su Sistema de Información Estrella (Star Information System), permitieron el trabajar en más de un documento a la vez en la misma pantalla. Algunos programas ahora incluso incorporan las funciones de contabilidad y de inventario, combinando el procesamiento de textos con la informática y terminar así la unión del procesador de textos a la computadora. El campo combinado se conoce como tratamiento de la información.

El WORDSTAR, desarrollado por Micropro International, emergió como el estándar de la industria en paquetes de software, aunque otros, actualmente, lo sobrepasan en muchísimas características.

Hay más de sesenta sistemas completos del procesamiento de textos en el mercado, y más de treinta paquetes de software para el uso en computadoras, todos con diversas capacidades y demandas sobre su eficacia.

La lista dada aquí subestima probablemente el número realmente disponible hoy en día.  
jose miguel imbel 18/01/2008 a las 03:37
JUSTIFICACIÓN DE LA INVESTIGACIÓN

El producto de la presente investigación permitirá establecer mecanismos a fin de efectuar una eficiente evaluación de los actos de corrupción y a partir de ella tomar las medidas correctivas necesarias o acciones con posterioridad. Mediante el trabajo se contribuye en el desarrollo de nuevos conocimientos relacionado al tema de corrupción versus fortalecimiento de Sistemas Administrativos. Existe un crecimiento alarmante a todo nivel de la corrupción en la Administración Pública. Existencia del desarrollo del burocratismo. JUSTIFICACIÓN METODOLÓGICA La ejecución de la Auditoria Integral y su relación con los controles internos, obedece a una serie de procedimientos, técnicas específicas, (instrumentos como encuesta, entrevista, modelos matemáticos) que han de servir para el aporte para la conclusión de la presente investigación.MARCO TEÓRICOBASES TEÓRICAS AUDITORÍA INTEGRAL: CONCEPTOPermite unificar todos los tipos de Auditoria, considerando los aspectos que permitan evaluar el desempeño institucional de manera objetiva en un periodo de tiempo definido. El propósito central de la Auditoria Integral, es establecer las recomendaciones que permita superar las deficiencias halladas, como consecuencia de la evaluación efectuada, según Palomino.PLANEAMIENTOSignifica desarrollar una estrategia general y establecer un enfoque apropiado respecto a la naturaleza, oportunidad y alcance de la auditoria. El auditor formula su plan para llevar a cabo el trabajo de auditoria de modo eficiente, eficaz y oportunoComprensión de las operaciones de la entidadLa comprensión de las operaciones de la entidad por auditar, constituye un requisito fundamental para facilitar el desempeño de una auditoria efectiva y eficiente, así como para brindar apoyo apropiado a la gestión de la entidad. Esta comprensión se refiere al entendimiento de las operaciones de la entidad por examinar, su naturaleza, antecedentes, tamaño, organización, objetivos, función principal, estrategias, riesgos, ambiente de control, y controles internos. (Ver sección 115, Parte II y sección 100 de la Guía de planeamiento para la auditoria gubernamental).Procedimientos de revisión analíticaLos procedimientos de revisión analítica comprenden la aplicación de comparaciones, cálculos, indagaciones, inspecciones y observaciones, para efectuar el análisis y desarrollo de expectativas, respecto a las relaciones entre los datos financieros y de operación, con el objeto de compararlos con los saldos de cuentas o clases de transacciones que se hayan registrado. Tales procedimientos se basan en el supuesto de que existen relaciones entre los datos y que continuarán existiendo, en ausencia de información que evidencie lo contrario. (Ver sección 120, Parte II y sección 120 de la Guía de planeamiento para la auditoria gubernamental).Diseño y estimación de la materialidadLa materialidad representa la magnitud de una omisión o error de una partida en un estado financiero que, a la luz de las circunstancias que la rodean, hacen probable que el juicio de una persona razonable basado en la información, podría haber sido cambiado o ser influenciado por la inclusión o corrección de éstas. El auditor debe estimar la materialidad en relación a los elementos de los estados financieros básicos, el que sea más significativo y, aplicar su criterio para determinar el elemento apropiado de los estados financieros que será utilizado como base material. (Ver sección 125, Parte II).Comprensión de la estructura de control interno, evaluación de riesgos y memorándum de planeamiento.Se denomina estructura de control interno al conjunto de planes, métodos, procedimientos y otras medidas, incluyendo la actitud de la dirección de una entidad, para ofrecer seguridad razonable respecto a que están lográndose los objetivos del control interno. El control interno discurre por cinco elementos, los que se integran en el proceso de gestión y operan en distintos niveles de efectividad y eficiencia. Tales elementos son los siguientes:Ambiente de control interno . (Ver sección 155, Parte II).Sistema de contabilidad. (Ver sección 160, Parte II).Procedimientos de control. (Ver sección 165, Parte II).Función de auditoria interna. (Ver sección 170, Parte II).Ambiente SIC (sistema de información computarizada). (Ver sección 175, Parte II).Mediante la comprensión de los elementos conformantes de la estructura de control interno, puede evaluarse el riesgo inherente y el riesgo de control a nivel de cuentas; después de lo cual es elaborado el memorándum de planeamiento(también denominado plan general de auditoria), el cual resume la información reunida durante el curso de la fase de planeamiento; después de los cual es elaborado el correspondiente programa de auditoria. (Ver sección 150, Parte II y de sección 130 a 170 de la Guía de planeamiento para la auditoria gubernamental).EJECUCIÓN DE AUDITORÍASi al preparar el correspondiente memorándum de planeamiento, el auditor decide confiar en los controles, generalmente, efectuamos pruebas de controles y, según los casos, realiza pruebas, consistentes en pruebas sustantivas, procedimientos analíticos o una combinación de ambos. Para arribar a la conclusión de que alcance de la auditoria fue suficiente y los estados financieros no tienen errores materiales, deben considerarse factores cuantitativos o cualitativos al evaluar los resultados de las pruebas y los errores detectados al realizar la auditoria. Parte del procedimiento implica la revisión de estados financieros, para determinar si tales estados, en conjunto, son coherentes con la información obtenida y fueron presentados apropiadamente. (Ver sección 210 a 290, Parte II).INFORMEAntes de concluir la auditoria se efectúa la revisión de los eventos subsecuentes, se obtiene la carta de representación de la administración, se prepara el memorándum de conclusiones y comunican los hallazgos de auditoria a la entidad (Ver sección 110 a sección 190 de la Guía para elaboración del informe de auditoria gubernamental). Finalmente, es elaborado el informe de auditoria financiera conteniendo:Dictamen sobre los estados financieros (Ver sección 360, Parte II); Informe sobre la información financiera para la Cuenta General de la República (Ver sección 360, Parte II); Informe sobre la estructura de control interno de la entidad (Ver sección 370, Parte II); y, Conclusiones, observaciones y recomendaciones de control interno financiero resultantes de la auditoria. (Ver sección 380, Parte II). SEGUIMIENTO Y EVALUACIÓN DE MEDIDAS CORRECTIVASSon procedimientos para la verificación y seguimiento de la implementación de las recomendaciones contenidas en los informes resultantes de las acciones de control efectuadas por los órganos conformantes del Sistema Nacional de Control y de las Sociedades de Auditoria designadas y contratadas.De la misma forma establece las pautas para el seguimiento de los procesos judiciales derivados de las acciones de control efectuadas por los órganos conformantes del Sistema Nacional de Control y de las Sociedades de Auditoria designadas y contratadas.Es de responsabilidad de los Titulares de las Entidades, Jefes de los Órganos de Auditoria Interna, Jefes de las unidades orgánicas de la Contraloría General de la República; y de las Sociedades de Auditoria designadas y contratadas; su incumplimiento genera responsabilidad administrativa.CONTROL INTERNOEs un proceso continuo realizado por la dirección, gerencia y, el personal de la entidad; para proporcionar seguridad razonable, respecto a sí están lográndose los objetivos siguientes:Promover la efectividad, eficiencia y economía en las operaciones y, la calidad en los servicios que debe brindar cada entidad pública;Proteger y conservar los recursos públicos contra cualquier pérdida, despilfarro, uso indebido, irregularidad o acto ilegal;Cumplir las leyes, reglamentos y otras normas gubernamentales; y,Elaborar información financiera válida y confiable, presentada con oportunidad.Promover la efectividad, eficiencia y economía en las operaciones y la calidad en los servicios que debe brindar cada entidad pública. Este objetivo se refiere a los controles internos que adopta la administración para asegurar que se ejecuten las operaciones, de acuerdo a criterios de efectividad, eficiencia y economía. Tales controles comprenden los procesos de planeamiento, organización, dirección y control de las operaciones en los programas, así como los sistemas de medición de rendimiento y monitoreo de las actividades ejecutadas.La efectividad tiene relación directa con el logro de los objetivos y metas programadas; la eficiencia se refiere a la relación existente entre los bienes o servicios producidos y los recursos utilizados para producirlos; en tanto que, la economía, se refiere a los términos y condiciones bajo los cuales se adquieren recursos físicos, financieros y humanos, en cantidad y calidad apropiada y al menor costo posible.El control de calidad en el sector público debe permitir promover mejoras en las actividades que desarrollan las entidades y proporcionar mayor satisfacción en el público, menos defectos y desperdicios, mayor productividad y menores costos en los servicios.Proteger y conservar los recursos públicos contra cualquier pérdida, despilfarro, uso indebido, irregularidad o acto ilegal. Este objetivo está relacionado con las medidas adoptadas por la administración para prevenir o detectar operaciones no autorizadas, acceso no autorizado a recursos o, apropiaciones indebidas que podrían resultar en pérdidas significativas para la entidad, incluyendo los casos de despilfarro, irregularidad o uso ilegal de recursos.Los controles para la protección de activos no están diseñados para cautelar las pérdidas derivadas de actos de ineficiencia gerencial, como por ejemplo, adquirir equipos innecesarios o insatisfactorios.Cumplimiento de leyes, reglamentos y otras normas gubernamentales. Este objetivo se refiere a que los administradores gubernamentales, mediante el dictado de políticas y procedimientos específicos, aseguran que el uso de los recursos públicos sea consistente con las disposiciones establecidas en las leyes y reglamentos, y concordante con las normas relacionadas con la gestión gubernamental.Elaborar información financiera válida y confiable, presentada con oportunidad. Este objetivo tiene relación con las políticas, métodos y procedimientos dispuestos por la administración para asegurar que la información financiera elaborada por la entidad es válida y confiable, al igual que sea revelada razonablemente en los informes. Una información es válida porque se refiere a operaciones o actividades que ocurrieron y que tiene las condiciones necesarias para ser considerada como tal; en tanto que una información confiable es aquella que brinda confianza a quien la utiliza.ESTRUCTURA DEL CONTROL INTERNOSe denomina estructura de control interno al conjunto de planes, métodos, procedimientos y otras medidas, incluyendo la actitud de la dirección de una entidad, para ofrecer seguridad razonable respecto a que están lográndose los objetivos del control interno. El concepto moderno del control interno discurre por cinco componentes y diversos elementos, los que se integran en el proceso de gestión y operan en distintos niveles de efectividad y eficiencia. Esto permite que los directores de las entidades se ubiquen en el nivel de supervisores de los sistemas de control, en tanto que los gerentes que son los verdaderos ejecutivos, se posicionen como los responsables del sistema de control interno, a fin de fortalecerlo y dirigir los esfuerzos hacia el logro de sus objetivos.Para operar la estructura de control interno se requiere la implementación de sus componentes, que se encuentran interrelacionados e integrados al proceso administrativo. Los componentes pueden considerarse como un conjunto de normas que son utilizadas para medir el control interno y determinar su efectividad, los que se describen a continuación:Ambiente de Control Interno Evaluación del Riesgo Actividades de Control GerencialSistema de información y comunicacionesActividades de Monitoreo Ambiente de Control InternoSe refiere al establecimiento de un entorno que estimule e influencie las tareas de las personas con respecto al control de sus actividades. Como el personal resulta ser la esencia de cualquier entidad, sus atributos constituyen el motor que la conduce y la base sobre la que todo descansa.El ambiente de control tiene gran influencia en la forma en que son desarrolladas las operaciones, se establecen los objetivos y estiman los riesgos. Igualmente, tiene relación con el comportamiento de los sistemas de información y con las actividades de monitoreo. Son elementos del ambiente de control, entre otros, integridad y valores éticos, estructura orgánica, asignación de autoridad y responsabilidad y políticas para la administración de personal. Evaluación del riesgoEl riesgo se define como la probabilidad de que un evento o acción afecte adversamente a la entidad. Su evaluación implica la identificación, análisis y manejo de los riesgos relacionados con la elaboración de estados financieros y que pueden incidir en el logro de los objetivos del control interno en la entidad. Estos riesgos incluyen eventos o circunstancias internas o externas que pueden afectar el registro, procesamiento y reporte de información financiera, así como las representaciones de la gerencia en los estados financieros. Son elementos de la evaluación del riesgo, entre otros, cambios en el ambiente operativo del trabajo, ingreso de nuevo personal, implementación de sistemas de información nuevos y reorganización en la entidad.La evaluación de riesgos debe ser responsabilidad de todos los niveles gerenciales involucrados en el logro de objetivos. Esta actividad de autoevaluación que practica la dirección debe ser revisada por los auditores internos para asegurar que los objetivos, enfoque, alcance y procedimientos han sido apropiadamente realizados. También esta autoevaluación debe ser revisado por los auditores externos en su examen anual. Actividades de control gerencialSe refieren a las acciones que realiza la gerencia y otro personal de la entidad para cumplir diariamente con las funciones asignadas. Son importantes porque en sí mismas implican la forma correcta de hacer las cosas, así como también porque el dictado de políticas y procedimientos y la evaluación de su cumplimiento, constituyen medios idóneos para asegurar el logro de objetivos de la entidad. Son elementos de las actividades de control gerencial, entre otros, las revisiones del desempeño, el procesamiento de información computarizada, los controles relativos a la protección y conservación de los activos, así como la división de funciones y responsabilidades. Sistema de Información y ComunicaciónEstá constituido por los métodos y procedimientos establecidos para registrar, procesar, resumir e informar sobre las operaciones financieras de una entidad. La calidad de la información que brinda el sistema afecta la capacidad de la gerencia para adoptar decisiones adecuadas que permitan controlar las actividades de la entidad.En el sector público el sistema integrado de información financiera debe propender al uso de una base de datos central y única, soportada por tecnología informática y telecomunicaciones, accesible para todos los usuarios de las áreas de presupuesto, tesorería, endeudamiento público y contabilidad gubernamental, en el nivel central y en el nivel operativo y, para los administradores gubernamentales.La comunicación implica proporcionar un apropiado entendimiento sobre los roles y responsabilidades individuales involucradas en el control interno de la información financiera dentro de una entidad.Actividades de MonitoreoRepresentan al proceso que evalúa la calidad del control interno en el tiempo y permite al sistema reaccionar en forma dinámica, cambiando cuando las circunstancias así lo requieran. Se orienta a la identificación de controles débiles, insuficientes o innecesarios y, promueve su reforzamiento.El monitoreo se lleva a cabo de tres formas: (a) durante la realización de actividades diarias en los distintos niveles de la entidad; (b) de manera separada por personal que no es el responsable directo de la ejecución de las actividades, incluidas las de control; y, (c) mediante la combinación de ambas modalidades.MARCO CONCEPTUAL EL ROL DEL AUDITOR EN LA LUCHA CONTRA LA CORRUPCIÓN EN LAS INSTITUCIONES PUBLICASEl Sr. Fred M. Siame, Auditor General de Zambia, mencionada en la Revista "OLACEF" considera que el rol del Auditor es el de proporcionarle servicios de Auditoria al Gobierno en todas las instancias del gobierno, a fin de promover la responsabilidad, economía, eficiencia y efectividad en la recolección, desembolso y utilización de los Fondos y otros recursos, para el beneficio de la sociedad, en ese sentido procura satisfacer este rol estimulando la administración honesta y eficiente y la plena responsabilidad en el seno de todo gobierno, además la aplicación de pruebas y revisiones de Auditoria contribuyen a las revelaciones de riesgo en las cuales se les exige a la Gerencia de las Entidades Auditadas, que tomen acciones correctivas. Por lo tanto, el poder para luchar y combatir las prácticas corruptas descansa en la autoridad ejecutiva de una organización. En la estructura del gobierno, la autoridad ejecutiva se ejerce en dos niveles: el primero es el del gabinete, en la cual se establecen las políticas y prioridades y el segundo es el del servicio civil, el cual está encabezado por el Contralor General de la República en la aplicación de las políticas y en el logro de las metas establecidas, para el cumplimiento de sus obligaciones y revisar si la aplicación de los programas está acorde con las políticas y prioridades e intenciones del estado.Como sabemos la corrupción está presente en casi todos los países de todo el mundo, pues a diario informan los medios de comunicación sobre las prácticas corruptas que han sido descubiertas y que proporcionan evidencias de que este azote no se limita a los países en desarrollo, es mas severo en los países desarrollados. Por lo que la corrupción se produce debido a la falta de responsabilidad y transparencia por parte de los sistemas de integridad pública, como resultado existe la percepción general de que el servicio público ha perdido su rumbo, que muchos elementos del sector público son corruptos y que muchas de las firmas del sector privado que realizan con el sector público, también son corruptas. El público ve a los funcionarios y los funcionarios parecen verse a sí mismo, como si existieran, no para proporcionarle un servicio al público, sino como un cuerpo que no es responsable ante el público al que declara servir. Además es posible mencionar que el ambiente en el que el gobierno realiza sus transacciones contribuye a incrementar la corrupción. Un ambiente caracterizado por sistemas pobres de contaduría y administración financiera hace que los funcionarios se vuelvan susceptibles a las prácticas corruptas.El estado de la Economía, es otro factor que contribuye a incrementar la corrupción, se ha culpado a la pobreza de ser en gran medida responsable por el incremento y aumento de la corrupción, debido a que las personas tienen que sobrevivir y harán cualquier cosa que sea necesaria para garantizar que haya alimento en su mesa; sin embargo, esto no significa que si el pueblo es pobre, entonces es corrupto.Otra de la causa de la corrupción es la avaricia, esto se ve en casos en los que los individuos quieren "vivir por encima de sus recursos", en tales casos, los funcionarios quieren perpetuar sus costosas estilos de vida a expensas del público.los tipos de corrupción, establecida son: Conflicto de intereses, el cual se produce cuando un oficial se coloca incidentalmente en posición de beneficiarse de un acto oficial, esto podría incluir el otorgamiento de un contrato a una compañía en la cual el funcionario tenga un interés financiero; Soborno, cuando un funcionario acepta dinero o alguna otra compensación para que asuma un curso particular de acción o inacción. Este tipo de corrupción es raramente descubierto mediante las Auditorias, debido a la falta de pistas o evidencias de Auditoria, especialmente en los casos en que los sobornos se pagan en efectivo; gratificaciones ilegales, similares a los esquemas del soborno, salvo que no hay, necesariamente, la intención de influir en una decisión particular de negocios, estas también son difíciles de descubrir, debido a la falta de evidencias y Extorsión Económica, esta tiene lugar cuando un funcionario exige dinero o alguna otra compensación para tomar una decisión particular de negocios. CARACTERIZACIÓN DE LA CORRUPCIÓN EN EL PERÚLa magnitud de la corrupción de la última década en el Perú (que fue recién develándose rápidamente en el último año) no había podido ser adecuadamente analizada en su oportunidad o porque las categorías teóricas y enfoques existentes eran insuficientes (ver "Hacia una Sociología de la Corrupción" Olivera Mario, 1999) o porque los Rankings de corrupción que actualmente se utilizan a nivel internacional tenían serias limitaciones (por ejemplo el Perú estaba ubicado en 1999 - año muy álgido en la corrupción peruana- como tercer país menos corrupto de América Latina antecedido por Chile y Costa Rica). Aparte habían sí algunos avances interesantes como los del Banco Mundial sobre "la captura del Estado" (Helman, Jones y Kauffman, 2000) pero también quedaban cortos para analizar el caso peruano.Nos convencimos que el instrumental teórico que iniciáramos con "Hacia una Sociología de la Corrupción" (1999) y que continuáramos con "Relaciones Peligrosas. Legislación Desinstitucionalizadora y Corrupción en el Perú" (1999) nos ofrecía el adecuado marco teórico para el análisis. Tuvimos mayor convicción de ello cuando comprobamos que el sonado y espectacular descubrimiento de los "Vladivideos" confirmaba lo que en "Relaciones peligrosas" ya lo habíamos dicho y fundamentado sociológicamente: que en el Perú había corrupción de Alta Nocividad Social no sólo en lo administrativo sino inéditamente en lo normativo.En esta ocasión y como producto de la aplicación del instrumental teórico que hemos propulsado (y al que estamos haciendo referencia) ofrecemos algunas conclusiones con las que hemos aportado para el diagnóstico de la corrupción en el Perú. Son las siguientes:La corrupción en el Perú en la última década (1991-2000) llegó a ser SISTEMICA (1) es decir, es desde el poder político que se han instrumentalizado utilitariamente importantes espacios institucionales siendo concatenados para planes de reelección presidencial y para el enriquecimiento ilícito. Los espacios organizativo-institucionales instrumentalizados para el efecto fueron: el Parlamentario; el Judicial; el Militar; el Policial; El Electoral; el Aduanero; el Tributario; el Financiero; de Privatizaciones; de Renegociación de la deuda; de Contrataciones; de Telecomunicaciones; de Promoción de la Mujer y Desarrollo Humano.La corrupción en el Perú supuso la "Captura del Estado" (Hellman, Jones y Kauffman, 2000) pero no sólo como lo visualiza el Banco Mundial: de empresas privadas sobre el Estado, sino de una mafia político - delictiva sobre el Estado, la cual a su vez favoreció y se asoció con empresas privadas. Los involucrados en la corrupción de la última década llegaron a construir una RED de CORRUPCIÓN que entrelazó no sólo a los ámbitos institucionales del Estado sino que alcanzó a la clase política, a medios televisivos, a medios periodísticos y al sistema bancario - financiero. La red de corrupción tuvo como piedra angular y organismo de mando al Servicio de Inteligencia Nacional. El Núcleo Corruptor en la Red de Corrupción no solo propició la corrupción Administrativa de Alta Nocividad Social sino que promovió el desarrollo de la corrupción Normativa de Alta Nocividad Social alimentada por el afán particular de perpetuación en el poder. Esta Corrupción Normativa de Alta Nocividad Social también estuvo vinculada a Decretos de Urgencia que posibilitaron la exacción de los dineros del proceso de privatización de empresas. Denominamos "Corrupción Administrativa de alta nocividad social" al tipo de corrupción que se ha dado en áreas de administración y ejecución de normas gubernamentales y sociales. Afectó el cumplimiento de deberes de función claves para la sociedad y la moral social. En muchos casos estuvo relacionada a delitos graves o al crimen organizado; por otro lado denominamos "Corrupción Normativa de Alta Nocividad Social" al tipo de corrupción que se realizó en los niveles normativos y legislativos de la sociedad en su conjunto. Implicó la gestación de normas dolosas por intereses creados (crematísticos o de poder). Afectó las reglas de juego social así como intereses colectivos y/o la moral social objetiva. (Olivera, Mario 1999a). Las fuentes más importantes de acumulación y enriquecimiento de los involucrados en la red de corrupción fueron: las contrataciones y adquisiciones del estado - en especial armas-; el lavado y tranferencias a través del sistema financiero; el narcotráfico; y, las extorsiones.Durante la década de los noventa, llegó a darse en el Perú el llamado "poder infiscalizado" (Olivera, 1999b). También se entronizó el secreto como estilo de gobierno a raíz de la lucha antisubversiva. Denominamos poder infiscalizado a la "capacidad de alguien de imponer su voluntad a un grupo o una comunidad sin controles u obligación de responder por sus actos".En los espacios institucionales pueden llegar a tener a poder infiscalizado quienes detentan los poderes normativo y administrativo.El "poder infiscalizado" implica:La ausencia de mecanismos de participación de la población o de las colectividades en el control y fiscalización de la gestión del poder. La inacción y/o complicidad de la entidades y órganos fiscalizadores y de control. La ausencia de rendiciones de cuentas periódicas y públicas, por parte de funcionarios y directivos.En el caso del Perú, esta situación se dio claramente: el poder se ejerció a discreción sin rendición de cuentas, sin controles institucionales (estatales o de partidos) y con "cheques en blanco" para gobernar. El poder infiscalizado en el caso del Perú se incrementó porque el Congreso con aplastante mayoría gubernamental y sin concesiones a la minoría no intentó buscar ni tímidamente el equilibrio de poderes, ni fiscalizó el poder normativo que le delegó en varias oportunidades al Ejecutivo y menos se autofiscalizó en su propia función legisladora por sus compromisos con el Ejecutivo. A la postre no hubo equilibrio de poderes; no hubo autonomía del Poder Judicial ni del Ministerio Público; el Parlamento no cumplió con su misión fiscalizadora; la Contraloría de la República no ejerció a cabalidad sus funciones; no hubo participación de la población en las decisiones nacionales ni en la formulación de leyes, etc.Las principales MODALIDADES CONFORMANTES DE LOS TIPOS DE CORRUPCIÓN, que se han dado en el sistema de corrupción peruano (2) han sido:Narcocomplicidad (+ Narcotráfico abierto) Colaboración con el lavado de dinero. Colaboración con el tráfico ilícito de armas. Corrupción prebendalista (rentista) Utilización indebida de información privilegiada. Corrupción electoral. Formulación de leyes (Decretos de urgencia) a favor del tráfico de armas y otros. Formulación de leyes o normas que afectan las reglas de juego social, en función de intereses creados (reelección presidencial).A lo que se suman y/o engarzan las tradicionales figuras de corrupción contempladas en los Códigos Penales: Corrupción de funcionarios Cohecho Concusión Peculado Enriquecimiento ilícito. Tráfico de influencias. Malversación de fondos.La identificación de casos concretos de corrupción en estas modalidades nos permitieron inductivamente determinar los tipos de corrupción que se dan a nivel del gobierno y los ámbitos institucionales.Un soporte de la corrupción sistémico estatal que se dio en el Perú fue la corrupción "SISTEMÁTICO - INSTITUCIONAL" (3) que casi inveteradamente se venía dando en los ámbitos judicial, policial, militar, de aduanas, penitenciario, etc. Esta Corrupción Sistemático - Institucional fue encimada e instrumentalizada por la Corrupción Sistémica. El siguiente CUADRO nos permite visualizar los tipos y grados de corrupción a los que se llegó en el Perú: Culturalmente, la corrupción en el Perú ha estado relacionada al desarrollo de una "cultura de la viveza" (Olivera, 1999b) donde se valora a quien sabe aprovecharse de los "tontos" que creen en las normas y las respetan, lo cual está acompañado de la creencia, producto de casos de impunidad, que en la vida no triunfa el honrado sino el vivo. La cultura de la viveza conlleva una combinación de agilidad y oportunismo de decisiones con el cálculo racional y muchas veces planificado de ventajas a conseguir. Otro elemento cultural vinculado a lo político ha sido lo que denominamos "botinazgo" que es la predisposición de algunas agrupaciones políticas o sociales a aspirar a los cargos gubernamentales o de cualquier directiva organizacional para tomarlos y usufructuarlos como botín.Uno de los factores que han contribuido a la cultura de la viveza ha sido la relativización utilitaria de valores y normas realizada especialmente a través de los medios de comunicación de masas que por razones lucrativas privilegian contenidos de escándalo y violencia y movilidad social a como dé lugar sin el correlato de sanción moral, contenidos que afectan y rebajan valores humanos y sociales.EFECTOS DE LA CORRUPCIÓN EN LA ADMINISTRACIÓN PÚBLICACon relación a las necesidades públicas: la corrupción distrae cantidades ingentes de recursos destinados a salud, vivienda y educación, etc., reduciendo el crecimiento económico y la calidad de vida. En la estabilidad gubernamental: la corrupción gubernamental socava la confianza de la ciudadanía en las instituciones gubernamentales e impide el desarrollo democrático. Con relación a la probidad administrativa: el combatir ineficazmente la corrupción gubernamental promueve la multiplicación de malos ejemplos, cinismo y deshonestidad. En tal sentido las Instituciones fiscalizadoras: Contraloría General, Entidades Fiscalizadoras Superiores de Auditoria) son llamadas a constituirse en un frente de lucha contra la corrupción gubernamental en el mundo, es una acción prioritaria para lo cual las EFS deben contar con los siguientes elementos: Normativa, Cualidades del Auditor, Desarrollo organizativo y técnico, coordinación entre entidades Gubernamentales, la colaboración ciudadana y la divulgación del Informe de Auditoria.   HIPÓTESIS DE LA INVESTIGACIÓN HIPÓTESIS GENERAL LA AUDITORÌA INTEGRAL REALIZADOS A LOS SISTEMAS ADMINISTRATIVOS DE LAS UNIDADES DE GESTIÓN EDUCATIVA LOCALES FORTALECE LOS CONTROLES INTERNOS DE MANERA SIGNIFICATIVA 2006-2008. HIPÓTESIS ESPECÍFICAS El Planeamiento de Auditoria tiene una relación directa en los Controles Previos y Concurrentes de las Unidades de Gestión Educativa Locales 2006-2008. La Auditoria Integral influye directamente con la Estructura de Control Interno en las UGELs 2006-2008.La Auditoria Integral interviene directamente en los Controles concurrentes de las UGELs 2006-2008. IDENTIFICACIÓN Y CLASIFICACIÓN DE VARIABLES IDENTIFICACIÓN DE VARIABLESAUDITORÍA INTEGRALCONTROLES INTERNOS EN LAS UGELSCLASIFICACIÓN DE VARIABLESVARIABLE INDEPENDIENTEAUDITORÍA INTEGRALVARIABLE DEPENDIENTECONTROLES INTERNOS EN LAS UGELSVARIABLE INTERVINIENTEORGANO DE CONTROL INSTITUCIONAL OCI.ALCANCES Y LIMITACIONES DE LA INVESTIGACIÓN Somos concientes de las limitaciones que se presentan en este Trabajo de Investigación, así tenemos que el Investigador identifica primero el problema, revisa la literatura para ponerse al día con el conocimiento actual del tema a estudiar y diseña el esquema de investigación. En verdad el investigador va desarrollando su diseño de estudio a lo largo del periodo de planeamiento y por lo tanto se trata de un proceso continuo en cual suelen ocurrir, muy a menudo la revisión y el cambio. Debe tenerse en cuenta también que la simple determinación del diseño ideal para una investigación no es suficiente, pues existen muchas consideraciones prácticas al establecer lo que puede realmente hacerse. A veces en la revisión final del proyecto de investigación, el mismo problema debe ser delimitado con precisión en algunos aspectos. Las limitaciones prácticas de la metodología pueden constituir un factor en este caso. Otra limitación práctica la imponen los recursos financieros disponibles y la carencia de literatura especializada con respecto al problema.Un investigador puede verse restringido por la carencia de instrumentos de medición y los recursos para crear instrumentos, cuando no tiene a la mano loa adecuados. También puede estar la limitación en lo referente al procesamiento de datos y otros instrumentos que se requieren para analizar los resultados obtenidos. 
jose miguel imbel 18/01/2008 a las 03:43
Procesadores de texto El procesador de textos es una herramienta estúpida e ineficiente para preparar trabajos en equipo. Éste es el alegato que defenderé a continuación. Probablemente le parecerá grotesco a primera vista. Si estoy en contra de los procesadores de texto: ¿qué alternativa propongo? ¿escribir a mano o con una máquina de escribir? No. Aunque hay argumentos a favor de estos tipos de escritura presupongo que los lectores de este ensayo harán la mayor parte de su trabajo en un ordenador, al igual que yo. Mi proposición es que hay alternativas mucho mejores, dentro de la informática, que un procesador de textos. El texto del alegato es intencionadamente provocativo, pero aclaro: cuando se dice: los procesadores de textos son estúpidos no se está diciendo que lo sea el usuario. Se está criticando la tecnología, especialmente una promovida por el mayor vendedor de software y que se ha convertido de facto en un estándar. A no ser que estuviese en el lugar adecuado en el momento adecuado probablemente desconozca la existencia de alternativas. Las alternativas nos se promocionan por los grandes distribuidores de software por una buena razón: son gratuitas. Empecemos por el principio. El texto ideado para comunicar ideas e información se propaga de varias formas: Como una copia impresaEn forma digital: correo electrónico, páginas web, documentos para visión en pantallaHay un cierto solapamiento en esta clasificación. Por ejemplo, un documento para imprimir puede ser distribuido electrónicamente en la esperanza de que el receptor será capaz de imprimirlo. Aun así consideraremos estos dos modos por separado. Copias impresasQueremos escribir un documento en el ordenador y que se imprima correctamente en la impresora. Por supuesto no es necesario que esto ocurra al tiempo (el texto en la impresora a la vez que se teclea en el ordenador). Queremos teclear primero, "grabar" digitalmente en algún medio adecuado. Después querremos recuperar el texto, editarlo a voluntad e imprimirlo cuando esto todo correcto. ¿Seguro que un procesador de texto -como el líder de ventas Microsoft Word- es la elección "natural" para hacer esto? Bueno, es una elección, pero no la mejor. ¿Por qué no? Composición y tipografíaPreparar texto con un procesador fuerza a trabajar, a la vez, con dos hechos que son conceptualmente diferentes y que deberían estar separados en la práctica si queremos aprovechar mejor el tiempo y que el resultado final sea el mejor de los posibles. Los dos hechos son: La composición del texto en sí misma. Es decir, la elección de palabras para expresar ideas y la estructura lógica del texto. Lo último depende de la naturaleza del texto. Incluye conceptos como la división del texto en párrafos, secciones o capítulos, la elección de si cierto material aparecerá como pie de página o dentro del texto principal, la presentación del partes del texto como citas en vez de palabras propias del autor, etcétera.La tipografía del documento. Esto se refiere a conceptos como la elección del tipo de letra en la que se imprimirá el texto y la forma en la que se visualizarán elementos estructurales del texto. Irán las cabeceras de sección en negrita o como versalitas? ¿El texto estará alienado a la izquierda o centrado? ¿Justificado o no? ¿Las notas aparecerán al pie de página o al final? ¿El texto irá en una columna o en dos columnas? Etcétera.En principio el autor debería concentrase en el primer aspecto. Es ese su problema. Adam Smith señaló los grandes beneficios que se obtienen de la división del trabajo. Composición y estructura lógica del texto es la contribución específica del autor a la producción del texto impreso. Tipografía es el trabajo del tipógrafo. Esta división del trabajo era normal en la era anterior a la informática. El autor escribía e indicaba el editor la estructura lógica del texto por medio de anotaciones. El tipógrafo traducía las anotaciones en el documento impreso e implementaba el diseño del autor en un diseño tipográfico específico. Uno sólo tiene que imaginarse a, por ejemplo, Zorrilla preocupándose de las cabeceras de sección de su Don Juan Tenorio para observar lo ridículo que sería esto. Zorrilla fue buen un gran literato pero no un tipógrafo. Puede pensar que nos hemos salido del argumento. Los escritos de Zorrilla se publicaban y los tipógrafos profesionales se interesaban en diseñarlo e imprimirlo. Usted y yo no somos tan afortunados; si queremos imprimir lo hacemos nosotros (y además, queremos hacerlo mucho más rápido que por el camino tradicional). Bien, sí y no. Lo hacemos nosotros (en nuestros ordenadores), pero tenemos mucha ayuda a nuestra disposición. En particular hay programas que realizan la tipografía de un documento de forma profesional. Ese programa (o conjunto de programas) haría por nosotros, gratis y en segundos, lo que el tipógrafo hacía por Cervantes, Shakespeare, Zorrilla, Paz... Sólo tenemos que decirle al programa las anotaciones apropiadas para que él sepa que hacer, justo como el método tradicional. Por tanto, sugiero que deberíamos distinguir dos "momentos" de la producción de un texto en un ordenador. Primero un teclea el texto y lo estructura correctamente, indicando la estructuración vía anotaciones simples. Esto se consigue con un editor de texto, un tipo de software que no debe confundirse con un procesador de texto -posteriormente se explicará la diferencia en detalle.- Después, se manda a un programa de tipografía que en muy poco tiempo nos devuelve una maravillosa copia tipográfica. Los demonios del WYSIWYGLos dos hechos que señalé antes van acoplados en los modernos procesadores de texto WYSIWYG ("What You See is What You Get" -lo que ves es lo que obtienes-). Se teclea el texto y a la vez, el texto aparece en la pantalla con una representación tipográfica que corresponde, supuestamente, a lo que aparecerá cuando se mande el documento a imprimir (aunque por varias razones esto no siempre es así). En efecto el texto aparece continuamente formateado tal cual teclea. A primera vista esto es una enorme ventaja; un análisis más detallado revela que es una condena. Hay tres aspectos para explicar esto. El autor se distrae de lo que es su preocupación de composición del texto en favor de elecciones tipográficas de las que no es experto.("jugar con tipos de letra y márgenes" cuando debería preocuparse del contenido).El algoritmo de tipografía que emplea el procesador WYSIWIG sacrifica calidad por la rapidez requerida para que le texto aparezca, en tiempo real, tal y como el usuario introduce el texto. El resultado final es de interior calidad a aquel de un programa de tipografía.El uso de un procesador de texto tienta al autor de perder la visión de la estructura lógica del texto y lo distrae con elementos tipográficos que son superficiales.Los primeros dos puntos son autoexplicatorios. Expliquemos el tercero. (Su importancia depende del tipo de documento en cuestión).  La estructura del documentoTomemos por ejemplo una cabecera de sección. En lo que se refiere a la estructura lógica del texto lo único que importa es "marcar" un trozo del texto como cabecera de sección. Por ejemplo se puede teclear \section{Texto de la cabecera}. Cómo la cabecera se implemente tipográficamente en la versión a imprimir es otra cuestión. Por contra, cuando se usa un procesador de texto, lo que ve es (¡todo!) lo que obtiene. Se fuerza a decidir qué tipografía aparecerá en la cabecera al mismo momento que ésta se crea. Supongamos que se decide poner la cabecera en negrita y con un cuerpo mayor que el resto del texto. ¿Cómo conseguirlo? Hay muchas formas, para casi todo el mundo la forma más intuitiva (dado el contexto WYSIWYG en el que se mueve) es introducir la cabecera, seleccionar el texto, pulsar la tecla de negritas, y elegir el tamaño de texto apropiado. La cabecera está ahora en negritas y con un cuerpo mayor. ¡Bien! Pero ¿quién dice que esto es una cabecera? Nada identifica esta pequeña porción de texto como una cabecera. Supongamos que después decide que prefiere, mejor, tener la cabecera en versalitas, o numeradas con números romanos, o centrada, o lo que sea. Tendría que decir: "Por favor, haga tal y cual cambio en todas las cabeceras." Pero tendría que repetirlo a lo largo de todo el texto y modificar manualmente cada cabecera. Ahora hay una forma de especificar una estructura lógica en (por ejemplo) Microsoft Word. Se puede, si se es cuidadoso, conseguir estos cambios con un solo comando. Pero pocos usuarios de Word explotan esto consistentemente, y no es sorprendente: los WYSIWYG no animan a preocuparse de la estructura lógica. Se puede fácilmente -muy fácilmente- "corromper" la estructura con comandos de formato de bajo nivel. Cuando, por contra, se usa un editor de texto, la necesidad de indicar una estructura lógica es inmediata.  Editores de textoVale, es hora de explicar qué es un editor de texto y en qué se diferencia de un procesador de texto. Un editor de texto moderno se parece a un procesador de texto. Es el concepto usual de menús o iconos desplegables para funciones como abrir, grabar o cerrar archivos, buscar, sustituir, corrector ortográfico etcétera. Pero no tiene la funcionalidad tipográfica. El texto aparece en pantalla de forma nítida pero sin ánimo de pretender que represente el resultado final de la copia impresa del documento. Cuando se graba un documento se hace en forma de texto simple lo que significa generalmente en "ASCII" (American Standard Character-Set for Information Interchange -Standard Americano del Conjunto de Caracteres para el Intercambio de Información-). El código ASCII se compone de 128 caracteres (lo que normalmente se conoce como un conjunto de caracteres de "7 bits" ya que requiere 7 dígitos binarios para su codificación: dos elevado a siete resulta 128). Incluye los dígitos del 0 al 9, el alfabeto inglés tanto mayúsculas como minúsculas y un conjunto de caracteres especiales. ASCII es el mínimo común denominador de la comunicación digital. Un mensaje en código ASCII es "entendible" por cualquier ordenador del mundo. Si se envía un mensaje en este código, sin duda el receptor verá lo que se ha escrito. Por contra, cuando se graba un archivo de un procesador de texto contiene varios caracteres del "control", fuera del rango ASCII. Estos caracteres representan el formato que se ha aplicado (por ejemplo negritas o itálicas) además de varias clases de "material" interno relacionado con la mecánica del procesador de texto. No son universalmente inteligibles. Para entenderlos, se necesita una copia del procesador de texto con el que se creó el documento (o algún tipo de filtro conversor apropiado). Si se abre un archivo proveniente de un procesador de texto con un editor de texto se ve (además del texto o sus bits) un montón de "simbolitos extraños"; es el código binario de formato. Puesto que un editor de texto no introduce código binario de formato, si se desea representar estas aplicaciones tales como itálicas, se necesita introducir unas etiquetas. Es decir se teclean "anotaciones" (usando también ASCII) que dicen al programa tipográfico que cierto texto se ponga en itálicas. Por ejemplo para el programa tipográfico LaTeX (más abajo se darán más detalles) se teclearía \textit{lo que vaya a aparecer en itálicas}. Realmente si se usa un editor de texto diseñado para facilitar el "trabajo" de LaTeX no tendría que hacer esto por sí mismo. Se teclean cierto tipo de secuencias de control cortas, se selecciona de un menú o se hace clic sobre un icono, y la anotación deseada aparecerá; la forma de teclear un documento ASCII preparado para LaTeX no es muy diferente de lo que ocurre en un procesador de texto. Virtudes de ASCIIElegir componer un texto en código ASCII usando un editor de texto y formatearlo con un programa específico tiene otras ventajas adicionales. Portabilidad: como se dijo anteriormente, cualquiera, en un ordenador, puede leer el texto codificado incluso si no tiene medios de visualizarlo o imprimirlo. Por contra, un archivo del procesador de texto Polilla 9.0 es incomprensible para un receptor que no tenga el mismo tipo y versión de tu procesador -a no ser que el receptor sea capaz de extraer el texto de la basura binaria que lo circunda.- Esto también se aplica al autor cuando se considera el paso del tiempo. Puede ser dificultoso leer un archivo de Polilla 8.0 en Polilla 9.0 o viceversa, pero nunca tendrá ese problema en ASCII.Compacto: los archivos ASCII representa ideas y no un montón de códigos del procesador de texto. Para documentos pequeños, un archivo de procesador de texto puede ser incluso diez veces mayor que el correspondiente ASCII que contenga la misma información.Seguridad: la elección "editor de texto más tipógrafo" garantiza que no tendrá problemas de corrupción del archivo (a no ser que se sufra un daño en el disco duro o algo similar). El texto fuente siempre está allí, incluso si el programa tipógrafo falla por alguna razón. Si usa un procesador de texto y no ha tenido problemas de corrupción de archivo ¡está de suerte!  El programa tipógrafoAhora pido un poco más de atención para el programa tipográfico. No entraré en detalles técnicos pero trataré de decir lo suficiente como para que tenga una idea sobre lo que estoy hablando. El programa de tipografía básico que tengo en mente se llama TeX -así, tal y como está escrito- y fue escrito por Donald Knuth de la Universidad de Stanford. TeX es gratuito (se descarga vía Internet desde muchos servidores) y está disponible para cualquier tipo de ordenador. (Puede también comprar un CDROM con el conjunto completo de archivos TeX por un precio pequeño). Knuth comenzó a trabajar en TeX en el 1977; en el 1990 anunció que no seguiría desarrollando el programa, no porque hubiera perdido interés sino porque ya era esencialmente perfecto. Está tan libre de errores como cualquier otro programa y hace un trabajo espléndido tipografiando cualquier tipo de documento desde texto simple a grandes fórmulas matemáticas. Me referí antes a LaTeX -así, tal y como está escrito.- si TeX es el motor básico para tipografía, LaTeX es un gran conjunto de macros, desarrollado inicialmente por Leslie Lamport en los ochenta y ahora mantenido por un grupo de expertos. Los macros hacen la vida sencilla para el usuario medio. LaTeX aún se desarrolla: paquetes y capacidades adicionales aparecen constantemente. Algunas utilidades de valor añadido también se desarrollan para TeX, tales como la que permite hacer documentos PDF (el "Portable Document Format" de Adobe) directamente desde los archivos ASCII. (Digo "bajo desarrollo" pero sólo quiere decir que está continuamente mejorando. Los programas ya son muy estable y buenos.) La estructura y forma del documento se indica en LaTeX por medio de "anotaciones" tal y como se mencionó antes. Hay muchos libros (y guías en Internet) que explican con cierto detalle estas anotaciones, no voy a ir por ahí. Las anotaciones más comunes son simple y fáciles de recordar2 además editores de texto diseñados para LaTeX (hay un montón) ofrecen gran ayuda. Una de las propiedades atractivas de LaTeX es la posibilidad de cambiar la apariencia del documento drásticamente y consistentemente con pocos comandos. La estructura global del documento se controla por: El "tipo de documento" -document class- que eliges ( informe -report,- carta -letter,- artículo -article,- libro -book-Los paquetes -package- que decides cargar.Puede, por ejemplo, cambiar completamente la familia de tipos de letra (consistentemente a lo largo del texto, cabeceras de sección, pies de página y todo) y los tamaños usados cambiando sólo uno o dos parámetros en el "preámbulo" del documento. Igualmente puede poner todo en formato de dos columnas o rotarlo de la orientación normal a apaisado. Es posible hacer algo similar en un procesador de texto pero, generalmente, no es conveniente y probablemente se volverá loco e introducirá, sin querer, inconsistencias en el formato del texto. Puede complicar un texto en LaTeX tanto como quiera. Lo más simple es especificar un tipo de documento y dejar que cargue las definiciones de los macros. Generalmente esto produce buenos resultados y la tipografía es mucho mejor que la que produce un procesador de texto. (Por supuesto, cosas como la numeración de capítulos, secciones, pies de páginas, referencias entrelazadas etcétera se tratan automáticamente) O puede ser más "intervencionista" y cargar paquetes adicionales (o crear sus propios paquetes) para controlar aspectos de la tipografía. Si esa es su elección puede conseguir resultados verdaderamente bonitos y exclusivos.  UniendoAhora se trata de explicar como funciona todo esto. Si tiene una buena configuración de TeX es algo como lo siguiente: Introduce el texto en su editor favorito. Incluye las "anotaciones" requeridas directamente o el editor lo hace vía menús o botones. Cuando quiera ver como va la versión tipográfica elige una opción del menú o hace clic en un botón del editor e invoca al programa de tipografía. Otro elemento de menú o botón abrirá un previsualizador en el que se puede ver lo que aparecerá en la impresora. Y es generalmente un verdadero "WYSIWYG" -el previsualizador mostrará una representación muy exacta de lo que se obtendrá en la impresora.- Puede agrandar una zona, visualizar una página entera, y las posibilidad similares. Se envía esta salida a la impresora con otro botón o elemento de menú y se continúa editando. Algo después querrá previsualizar el archivo que ha actualizado. Se vuelve a invocar el programa de tipografía. Esta vez no tendrá que invocar el previsualizador: si lo ha dejado corriendo se actualizará automáticamente. Cuando haya terminado una sesión de edición de texto puede borrar el archivo de la versión tipográfica si necesita espacio en el disco. Sólo es necesario conservar el archivo fuente en código ASCII; la versión tipográfica se crea fácilmente cuando se vaya a necesitar. Propagando el texto por ordenadorLa sección anterior se dedicó fundamentalmente a conseguir un resultado tipográfico adecuado. Hay otras consideraciones importantes cuando se prepara un documento si se tiene en mente la necesidad de hacer transmisiones digitales (correos electrónico, páginas web, etcétera). Por ejemplo, tomemos el caso del correo electrónico. Si alguien quiere mandar un mensaje corto lo introduce en el cliente de correo que este usando, tanto si es un cliente "tradicional" basado en texto como Pine, o una interfaz gráfica como Netscape o Eudora. En este caso el mensaje irá, probablemente, en código ASCII (o quizás incluya HTML, i.e. Hyper-Text Mark-up Language, el lenguaje de las páginas web el cual se compone principalmente de código ASCII). Pero ¿y si se quiere mandar un texto más largo que ya ha preparado independientemente del cliente de correo? Para esto frecuentemente se "adjunta" un documento de un procesador de texto. ¿Hay alternativa? Tenemos que distinguir dos situaciones: ¿es el texto en cuestión relativamente corto y simple (un informe, carta, agenda, horario) o es más complejo (un artículo con muchas fórmulas, un libro)? La opción "ASCII más programa de tipografía" conduce a propuestas diferentes en según qué caso. Documentos sencillosCon documentos sencillos nos tenemos que preguntar: ¿necesita elementos de tipografía, tipos de letras y todo eso? No es más eficiente -el "más" en el sentido de una comunicación económica y efectiva- enviar un texto simple en código ASCII con el formato elemental que permite el código? Esto conserva el ancho de banda de la comunicación (recuérdese que el archivo del procesador puede ser mucho mayor que el de código ASCII) y asegura que nadie tomará en vano el esfuerzo realizado porque no tiene el Polilla 9.0. Puede adjuntar el ASCII a través de un fichero creado por un editor igual que lo hace con un documento creado por un procesador de texto, o simplemente pegarlo en el cuerpo del mensaje de correo electrónico (puesto que no es más que texto simple). Ya que el texto TeX no es más que código ASCII -y si hablamos de un documento sencillo no habrá muchas "anotaciones" y de haberlas serían autoaclaratorias3- y puede ser tratado de la misma forma. Documentos complejosLos documentos complejos y largos son muy fáciles de tratar en la forma tipográfica. Las fórmulas matemáticas son difíciles de escribir en ASCII y los diagramas e imágenes también. ¿Qué hace TeX en este asunto? He argumentado que el procesador de texto puede ser problemático porque el receptor puede no tener el Polilla 9.0. ¿No sirve esto en los dos casos? Incluso si llegas a probar TeX, ¿cuántos de sus amigos tendrán una instalación de TeX? Aquí hay algunas soluciones: Convertir el archivo TeX en código HTML. Hay programas buenos para esto. (HTML y TeX pertenecen a una familia muy parecida de programas en la que se incluye diseño lógico del formato de texto, lo que posibilita la interconversión de formatos con gran fidelidad.4) Ahora, su receptor si puede leer el texto usando un navegador de Internet.¿Puede el receptor imprimir un archivo PostScript? Es muy probable que en una universidad o empresa así sea ya que dispondrá de una impresora PostScript. Si no, el receptor puede instalar el programa "ghostview" -gratuito- y hacer lo mismo con cualquier impresora. En tal caso se envía la versión tipográfica del documento en la forma de archivo postscript el cual se puede enviar a la impresora.¿Tiene el receptor el lector "Acroread" para archivos PDF? (También es gratuito) Entonces se le envía una versión PDF del documento tipografiado.En la discusión anterior hemos tocado el punto de la preparación de una página web. Tenemos la opción de hacerlo en HTML directamente. Pero si no quiere hacer eso, puede escribir HTML usando una interfaz de usuario como Netscape Communicator, por ejemplo. También puede hacerlo usando MS Word (por cierto que crea un código HTML horroroso, lleno de elementos extraños que hacen difícil editarlo con otro programa). Si elige TeX se puede convertir a HTML de forma rápida, sencilla y limpia. LimitacionesHe intentado hacer un fuerte alegato en favor de la opción "ASCII más programa tipográfico" en vez de procesador de texto. Admito, sin embargo, que ha algunos tipos de documentos para los cuales un sistema WYSIWYG es la herramienta natural. Pienso en documentos cortos muy específicos con gran cantidad de formateo de texto en vez de texto en sí: posters, invitaciones y similares. Podría hacer esto en TeX pero no sería lo más eficiente. El LaTeX estándar sería de poca ayuda. Y aunque LaTeX es muy hábil para manejar automáticamente el tamaño de los tipos de letra que se necesitan en un texto, no está diseñado para el tipo de fuentes divertidas que podría necesitar para un documento muy informal. La estructura lógica no es importante en este caso: sólo interesa la apariencia. Normalmente se desea saber, por ejemplo, "si pongo tal línea a 36pt, mandaría la última línea a la siguiente página, que es lo que no quiero que ocurra" Un sistema WYSIWYG es lo apropiado. Si su trabajo es de este estilo, habría dejado de leer esto hacer mucho tiempo. Si su trabajo es la presentación de documentos formales, esta limitación poco importa. EstramboteQuizá haya percibido que estoy un poco entusiasmada con el tema. Lo estoy. La razón no es sólo una cuestión de debate académico entre modos alternativos de preparar un texto. Es un conjunto de factores en el que el poder de los grandes vendedores de software sólo empujan de una parte. Por ser amables, afrontamos una situación en la que MS Word se convierte, para casi todo el mundo, en una suerte de estándar para la preparación de documentos usando un ordenador. Pero Word es un estándar que tiene que ofrecer más que el hecho de que es (o aspira a ser) un estándar. Es un poco como el QWERTY. ¿Conoce la historia? ¿Por qué las teclas de un máquina de escribir (y también, por extensión, de los ordenadores) tiene QWERTYUIOP en la línea superior? No fue la disposición original de la teclas. Fue diseñada para un propósito muy específico: entorpecer a los mecanógrafos. El problema era que la habilidad de los primeros mecanógrafos rápidamente superaban las capacidades de las primeras máquinas de escribir: un mecanógrafo rápido podría atascar las teclas pulsándolas más rápidamente de lo que ellas tardaban en retornar después de golpear la cinta de tinta. QWERTY distribuye las teclas para entorpecer la mecanografía. Esto es absurdo en un teclado electrónico pero es muy tarde para cambiar: QWERTY es un estándar y todos los intentos de racionalizar han fracasado ante esta realidad. De forma análoga, estoy argumentando que MS Word no tiene derecho a ser considerado un estándar en la preparación de documentos. Es pero que no sea demasiado tarde en este caso, que aún haya oportunidad de decir No a Word. Realmente, en cierto sentido Word es incluso peor que QWERTY: no es un estándar sino un "ascensorista" -un ¡trepa!.- El "estándar" de Microsoft para al representación binaria de documentos varía a voluntad de... Microsoft Corporation.5 El cuasi-monopolio de MS Word se soporta sobre el cuasi-monopolio de Microsoft Windows (tema que no se trata aquí). Y como no están presionados por rivales comerciales Microsoft no tiene interés en establecer algún tipo de estándar para la representación binaria de formato de texto. Por el contrario, tiene gran interés en forzar la "actualización" de Word cada poco tiempo. Oh cielos, Word N.0 no leerá el documento que le mandé su compañero si lo escribe en Word (N+1).0. Bien, haría mejor en actualizar, ¿verdad? Incluso si ninguna de las nuevas características de la versión N+1 -suponiendo que las haya- sean de su interés.6 ReferenciasSi ha llegado hasta aquí quizá le interesen más detalles sobre buenos editores de texto, TeX y todo lo demás. Lo mejor es empezar en un sitio de amigos de TeX, por ejemplo la página de TUG (TUG is the TeX Users Group -Grupo de Usuarios de TeX-). Hay muchos enlaces útiles. Uno de los principales es la Red Completa de Archivos TeX, abreviado CTAN de donde se puede descargar TeX, LaTeX y todo lo demás. Incluye el programa de tipografía y una gran colección de macros, previsualizadores, y software para imprimir archivos. Los paquetes de TeX no incluyen, generalmente, un editor de texto así que necesitará uno (a no ser de que ya tenga uno). Hay muchas elecciones pero mi sugerencia es Emacs, junto con el paquete AUC TeX. Esto hace que Emacs trabaje perfectamente con TeX y LaTeX. Los macros aparecen destacados y pueden verse errores a simple vista. Hay gran cantidad de comandos cortos y menús desplegables que facilitan la tarea. Aquí puede ver una captura de pantalla de una sesión de edición de TeX usando Emacs con AUC TeX (JPEG, 145345 bytes).   
cesar beez (1) 4to 18/01/2008 a las 03:49
nombre: cindy torres      curso: 4to tecnico     numero: 30



Planteamiento del problema

Cuando una persona se ve abocada a la realización de una investigación y en especial de un proyecto, su mayor perocupación es definir el tema , de esta decisión depende la conclusión pronta ò tardia de la investiagción , pero como se toma esta decisión, que esta influenciada por los aspectos intrinsicos y estrinsicos,...
Para tener la idea clara se deben formular una serie de preguntas orientadoras
para la elaboraciòn de un problema , entre ellas podemos mencionar a ;
Es de interés el tema
Existe informaciòn sobre ese fenómeno ò sobre similares
Quien centraliza esa informaciòn
Que resultados obtuvieron anteriormente
Es un trabajo inédito
Cuando el investigador da respuesta a los interrogantes planteados, inicia la selección del tema de la observaciòn directa de la realidad en la que se encuentra, al mismo tiempo el investigador debe posesionarse de la mayor cantidad de conocimiento sobre el tema que desea investigar, es decir debe transformarse en EXPERTO en ese tema ó debe ser asesorado por UN PROFESIONAL que cuente con ese bagaje de conocimiento, por otra parte las fuentes de informaciòn que se deberán utilizar son tanto directas como indirectas, ente estas pueden y deben ser primarias secundarias y en muy pocas ocasiones terciarias, lo que necesitamos es recolectar datos para tener un contexto que nos aclare nuestra inquietud, al mismo tiempo uno debe realizar este trabajo moroso para entender los propósito directos e implícitos del investigador.
El punto de partida para la investigaciòn es elegir el tema ò problema , es establecer mediante una observaciòn cual es la duda o la falta de conocimiento existente , en la actualidad los investigadores tienen a originar sus ideas creativas en la simple observación de la realidad en la que vive, en la revisión crìtica y lògica de trabajos similares ó diferentes al que desea realizar, esta bibliografía especializada le permitirá seguir pautas , seguir brechas en el conocimiento ò incluso transformarlo ò dar origen. Ya que las incongruencias ó aciertos de estas investigaciones puede ser guías motivadoras de la investigación, e incluso pueden permitir surgir nuevas ideas en otro contexto, marco y realidad.





Justificacion


Expresar las razones por las cuales se va a realizar el trabajo, y los beneficios que se espera obtener del mismo.





variables
las variables son unos elementos que se utilizan para contener datos de distintos tipos: números, letras, palabras, textos, valores lógicos, etc. El valor contenido en una variable puede cambiar a lo largo de la ejecución de un programa. ...






Hipotesis

Planteamiento inicial cuya validez ha de ser confirmada por la experimentación o el razonamiento.



Objetivos

Especificar las acciones a realizar para probar la hipótesis planteada.



cindy torres cindy torres 18/01/2008 a las 19:43
fanny estehr

#27 cuarto tecnico




Planteamiento del problema
Cuando una persona se ve abocada a la realización de una investigación y en especial de un proyecto, su mayor perocupación es definir el tema , de esta decisión depende la conclusión pronta ò tardia de la investiagción , pero como se toma esta decisión, que esta influenciada por los aspectos intrinsicos y estrinsicos,...
Para tener la idea clara se deben formular una serie de preguntas orientadoras
para la elaboraciòn de un problema , entre ellas podemos mencionar a ;
Es de interés el tema
Existe informaciòn sobre ese fenómeno ò sobre similares
Quien centraliza esa informaciòn
Que resultados obtuvieron anteriormente
Es un trabajo inédito
Cuando el investigador da respuesta a los interrogantes planteados, inicia la selección del tema de la observaciòn directa de la realidad en la que se encuentra, al mismo tiempo el investigador debe posesionarse de la mayor cantidad de conocimiento sobre el tema que desea investigar, es decir debe transformarse en EXPERTO en ese tema ó debe ser asesorado por UN PROFESIONAL que cuente con ese bagaje de conocimiento, por otra parte las fuentes de informaciòn que se deberán utilizar son tanto directas como indirectas, ente estas pueden y deben ser primarias secundarias y en muy pocas ocasiones terciarias, lo que necesitamos es recolectar datos para tener un contexto que nos aclare nuestra inquietud, al mismo tiempo uno debe realizar este trabajo moroso para entender los propósito directos e implícitos del investigador.
El punto de partida para la investigaciòn es elegir el tema ò problema , es establecer mediante una observaciòn cual es la duda o la falta de conocimiento existente , en la actualidad los investigadores tienen a originar sus ideas creativas en la simple observación de la realidad en la que vive, en la revisión crìtica y lògica de trabajos similares ó diferentes al que desea realizar, esta bibliografía especializada le permitirá seguir pautas , seguir brechas en el conocimiento ò incluso transformarlo ò dar origen. Ya que las incongruencias ó aciertos de estas investigaciones puede ser guías motivadoras de la investigación, e incluso pueden permitir surgir nuevas ideas en otro contexto, marco y realidad.





Justificacion


Expresar las razones por las cuales se va a realizar el trabajo, y los beneficios que se espera obtener del mismo.





variables
las variables son unos elementos que se utilizan para contener datos de distintos tipos: números, letras, palabras, textos, valores lógicos, etc. El valor contenido en una variable puede cambiar a lo largo de la ejecución de un programa. ...






Hipotesis

Planteamiento inicial cuya validez ha de ser confirmada por la experimentación o el razonamiento.



Objetivos

Especificar las acciones a realizar para probar la hipótesis planteada.

melody cedeño #8 cuarto tecnico



Planteamiento del problema

Cuando una persona se ve abocada a la realización de una investigación y en especial de un proyecto, su mayor perocupación es definir el tema , de esta decisión depende la conclusión pronta ò tardia de la investiagción , pero como se toma esta decisión, que esta influenciada por los aspectos intrinsicos y estrinsicos,...
Para tener la idea clara se deben formular una serie de preguntas orientadoras
para la elaboraciòn de un problema , entre ellas podemos mencionar a ;
Es de interés el tema
Existe informaciòn sobre ese fenómeno ò sobre similares
Quien centraliza esa informaciòn
Que resultados obtuvieron anteriormente
Es un trabajo inédito
Cuando el investigador da respuesta a los interrogantes planteados, inicia la selección del tema de la observaciòn directa de la realidad en la que se encuentra, al mismo tiempo el investigador debe posesionarse de la mayor cantidad de conocimiento sobre el tema que desea investigar, es decir debe transformarse en EXPERTO en ese tema ó debe ser asesorado por UN PROFESIONAL que cuente con ese bagaje de conocimiento, por otra parte las fuentes de informaciòn que se deberán utilizar son tanto directas como indirectas, ente estas pueden y deben ser primarias secundarias y en muy pocas ocasiones terciarias, lo que necesitamos es recolectar datos para tener un contexto que nos aclare nuestra inquietud, al mismo tiempo uno debe realizar este trabajo moroso para entender los propósito directos e implícitos del investigador.
El punto de partida para la investigaciòn es elegir el tema ò problema , es establecer mediante una observaciòn cual es la duda o la falta de conocimiento existente , en la actualidad los investigadores tienen a originar sus ideas creativas en la simple observación de la realidad en la que vive, en la revisión crìtica y lògica de trabajos similares ó diferentes al que desea realizar, esta bibliografía especializada le permitirá seguir pautas , seguir brechas en el conocimiento ò incluso transformarlo ò dar origen. Ya que las incongruencias ó aciertos de estas investigaciones puede ser guías motivadoras de la investigación, e incluso pueden permitir surgir nuevas ideas en otro contexto, marco y realidad.





Justificacion


Expresar las razones por las cuales se va a realizar el trabajo, y los beneficios que se espera obtener del mismo.





variables
las variables son unos elementos que se utilizan para contener datos de distintos tipos: números, letras, palabras, textos, valores lógicos, etc. El valor contenido en una variable puede cambiar a lo largo de la ejecución de un programa. ...






Hipotesis

Planteamiento inicial cuya validez ha de ser confirmada por la experimentación o el razonamiento.



Objetivos

Especificar las acciones a realizar para probar la hipótesis planteada.
Anónimo 22/01/2008 a las 16:12
“Es más importante para la ciencia, saber formular problemas, que encontrar soluciones”
Alberth Einstein
No
debemos olvidarnos que la elecciòn de un tema para investigar quizá se
constituya como el eventò que prima en una investigación, pues depende
de esta etapa para que el desarrollo de la investigaciòn siga un rumbo
preestablecido, concluir con la meta .
SELECCIÒN Y DEFINICIÓN DEL TEMA DE INVESTIGACIÓN
Cuando
una persona s e ve abocada a la realización de una investigación y en
especial de un proyecto, su mayor perocupación es definir el tema , de
e sta decisión depende la conclusión pronta ò tardi a de la
investiagción , pero como se toma esta decisión, que esta influenciada
por los aspectos intrinsicos y estrinsicos,...
Para tener la idea clara se deben formular una serie de preguntas orientadoras
para la elaboraciòn de un problema , entre ellas podemos mencionar a ;
Es de interés el tema
Existe informaciòn sobre ese fenómeno ò sobre similares
Quien centraliza esa informaciòn
Que resultados obtuvieron anteriormente
Es un trabajo inédito
Cuando el investigador da respuesta a los interrogantes planteados,
inicia la selección del tema de la observaciòn directa de la realidad
en la que se encuentra, al mismo tiempo el investigador debe
posesionarse de la mayor cantidad de conocimiento sobre el tema que
desea investigar, es decir debe transformarse en EXPERTO en ese tema ó
debe ser asesorado por UN PROFESIONAL que cuente con ese bagaje de
conocimiento, por otra parte las fuentes de informaciòn que se deberán
utilizar son tanto directas como indirectas, ente estas pueden y deben
ser primarias secundarias y en muy pocas ocasiones terciarias, lo que
necesitamos es recolectar datos para tener un contexto que nos aclare
nuestra inquietud, al mismo tiempo uno debe realizar este trabajo
moroso para entender los propósito directos e implícitos del
investigador.
CONCEPCION DEL PROBLEMA
El punto de partida para la investigaciòn es elegir el tema ò problema
, es establecer mediante una observaciòn cual es la duda o la falta de
conocimiento existente , en la actualidad los investigadores tienen a
originar sus ideas creativas en la simple observación de la realidad en
la que vive, en la revisión crìtica y lògica de trabajos similares ó
diferentes al que desea realizar, esta bibliografía especializada le
permitirá seguir pautas , seguir brechas en el conocimiento ò incluso
transformarlo ò dar origen. Ya que las incongruencias ó aciertos de
estas investigaciones puede ser guías motivadoras de la investigación,
e incluso pueden permitir surgir nuevas ideas en otro contexto, marco y
realidad.
SELECCIÓN DEL PROBLEMA
Para seleccionar un problema este debe cumplir con ciertos parámetros , el
primero :
carrera
, se debe elegir los problemas de acuerdo ala especialidad profesional
que tiene el investigador ó en base a la destreza que quiera tener a
futuro (nivel de correspondencia)Ej. Enfermería
elección del área, es decir en que grupo de conocimientos previos ò nuevos iniciare mi investigación, ej. Ciencias de la Salud
elección de la asignatura, es decir cual será la materia que permitirá circunscribir la investigación, Ej. Microbiología
elección
del tema, una vez que el investigador conozca la asignatura ò la
materia , dividirá a esta en la mayor cantidad de temas que pueda ,
contenidos de los que deberá elegir uno ó dos, según su inclinaciòn
personal, o de grupo, y su interés cuales quiera que sea este, por otra
parte nos permite trabajar con informaciòn especializada sobre un
determinado tópico, por ej. Micosis
elección
del temas específico, una vez con el tema general ha sido iidentificado
es neceseario discrimnar aquellos posibles de raliza r de los
imposibles, reduciendo asì aún más el campo de acciòn del futuro
investigador, de hecho es el problema que nosotros queremos investigar
, por ej. Micosis en tejido necrótico (hongos en cadáveres)
situación
problémica, el tema especìfico se descompone en situaciones
problémicas, que a su vez se descomponen en otras más pequeñas, todas
interrelacionadas en la estructura problémica (problema ò fenómeno) ,
de ahì que nos permite formular el primer intento de una pregunta
científica, por ej. Cuáles serán los agentes micóticos que se observan
en el tejido necrótico del anfiteatro, Area de Ciencias de la Salud.
Gestión 2003
DELIMITACION DEL PROBLEMA
Para poder definir un problema primero debemos definirlo, de ahì que es necesario
que ubiquemos los parámetros que engloben la informaciòn que buscamos:
DEFINICION DEL PROBLEMA
Una vez elegido el tema ò problema a investigar es necesario conocer sus
Componentes, es decir la amplitud y contenido del mismo para identificar las
caracterìsticas ó valores del fenòmeno, es decir debemos saber delimitar los
alcances , errores, funciones, factibilidad, utilidades, los lazos con otros problemas
(anexos) etc.
CLASIFICACION DE LOS PROBLEMAS
A continuación proponemos algunas pistas para clasificar los problemas. Pero, antes definamos los términos que vamos a emplear.
Cuando
decimos "no responde a nuestras expectativas" nos estamos refiriendo a
que no ocurre lo que esperamos, es decir, lo que ocurre habitualmente.
Esto
significa que para detectar un problema debemos conocer previamente la
situación, el hecho o el proceso. Sólo así seremos capaces de elaborar
algún tipo de explicación de lo que estamos observando. Veamos un
ejemplo.
Nosotros sabemos que José, uno de nuestros compañeros, es puntual, no falta nunca y, si alguna vez lo hace, avisa previamente.
Si cuando llegamos al servicio no lo encontramos, seguramente comenzaremos a Preguntarnos: ¿Qué le habrá pasado a José?
Y
no sólo nos preguntaremos qué le habrá pasado, sino que, además,
formularemos algunas posibles respuestas: se habrá enfermado; tendrá un
familiar enfermo; habrá sufrido un accidente en el camino.
La ausencia de José constituye un problema porque no ha respondido a nuestras expectativas.
La atención que prestemos al desarrollo de la actividad cotidiana nos
permitirá apreciar los innumerables problemas que presenta la
satisfacción de la demanda
y que, cualesquiera sean sus orígenes, perturban la tarea, la hacen más dificultosa
y poco satisfactoria. Muchos de esos problemas son difíciles de modificar porque dependen de:
causas estructurales, es decir, de¡ sistema socio-económico que adopta el país,
de¡ orden administrativo o de la organización de los servicios,
de¡ comportamiento de la población, respecto de algunas prácticas que no
siempre favorecen el mantenimiento de un buen estado de salud.
Con este entremés podemos mencionar que los problemas se clasifican segùn su observación estructurado del contexto (
detectar aquellos problemas cuya solución está al alcance de¡ nivel de
decisión de¡ sector salud, diferenciándolos de aquellos que caen dentro
de¡ campo de otros sectores de la sociedad), al mismo tiempo también
existen problemas locales ( sujetos a comprobaciòn y análisis).
VALORACION DEL PROBLEMA DE INVESTIGACIÓN
Se refiere a que nuestro problema a estudiar debe presentar aspectos
específicos de la situaciòn a investigar, el conocimiento a buscar no debe ser
amplio ni difuso de tal manera que nos sea dificil identificar el problema a
desentrañar, nos permite determinasr la extensiòn del problema , verificar una
serie de aspecos por ejemplo factibilidad, temporalidad, espacialidad, originalidad, r
elevancia, interes, entre otros.
UTIL, para
resolver, en lo posible, la problemática de salud de¡ área en la que
estamos prestando servicio, servirá de algo ó cambiaremos la realidad
de algún entorno al realizar la investigaciòn, modificaremos sustancial
ó someramente nuestra realidad, será determinate para el conocimiento
aquello que queremos investigar, “debemos cuestionarnos todo lo posible
antes de iniciar una investigaciòn pues una vez comenzada es imposible
enmendar errores” Le Thierre 1998
FACTIBLE, es
decir, abordable desde el nivel de¡ servicio en el cual estamos
trabajando y con los recursos disponibles, es decir contamos con los
recursos humanos, financieros, sociales, culturales, educativos,
técnicos, tiempo, destreza, etc, para iniciar y concluir este proyecto,
al mismo tiempo la capacidad del investigador es la adecuada para este
tipo de trabajo (grado de conocimiento), ó existira posibilidades de
conocimiento por la variedad de fuentes de informaciòn con la que
contamos, el acceso a las misas, podre obtener esta informaciòn fácil y
fidedignamente, existira técnicas de abordaje preestablecidas para este
tipo de investigación, existirá la competencia necesaria tanto del
investigador como del investigado, existirá el suficiente conocimiento
del campo de investigaciòn (ideales del investigador). Como se darán
cuenta el investigador deberá responder afirmativamente a la gran
mayoría de estas preguntas por no decir a todas para iniciar una
investigaciòn, ya que depende de la solidez con la que se inicia una
investigaciòn parea que esta concluya negando ò afirmando verdades
cientìficas.
PRACTICA, cuyos
resultados sean de aplicación inmediata, en el campo objeto de estudio
transformando con esto la realidad existente e incluso creando una
realidad alterna de mejores condiciones.
ORIGINALIDAD, se refiere que el problema no haya sido investigado con anterioridad, ò
si ya se realizo el estudio , se enfoque en otro aspecto nuevo con la
misma categoría de ORIGINAL, esto se puede hacer realizando el mismo
estudio pero cambiándole el enfoque, valores variables, escalas de
medición u otros aspectos metodológicos.
RELEVANCIA,
no s e olvide que se debe considera la utilidad práctica ò teòrica que
encierra la investigación y cual será la utilizaciòn que se le dará a
este conocimiento, su practicidad entre otros aspectos propios del
investigador.
INTERES, espontaneo ó
dirigido del investigador, sea cual fuere deben motivar al investigador
a concluir con su trabajo de investigaciòn respndiendo a los fenómenos
creadores del problema.
OTROS CUESTIONAMIENTOS QUE DEBEMOS REALIZAR
¿QUÉ PROBLEMA ELEGIREMOS?
La elección de un problema requiere un período previo de observación. No
podemos decir cuán largo será ese período porque eso dependerá de¡ interés que
tengamos en realizar la tarea con eficiencia y eficacia y las dificultades con que
tropezamos frecuentemente.
Desde el punto de vista científico. los intereses que rigen la investigación pueden
ser de tres tipos.
- Investigación pura, aquella que responde a la curiosidad de saber qué pasa
allí, donde la observación 'ingenua no alcanza a desentrañar los procesos que
producen el fenómeno observado.
- Ordenamiento intrínseco, es la que busca reducir un conjunto de datos
acumulados en censos, registros hospitalarios. estadísticas vitales, etc. a un
orden comprensible, estableciendo relaciones entre los datos.
- Investigación aplicada, es la que realiza el investigador para resolver algún
problema.
En la elección del problema a investigar entran a jugar otros factores que no
dependen del problema en sí, sino de quienes lo abordan. Veamos algunos de esos factores.
Los juicios de valor. Las
preferencias personales siempre se filtran en todo trabajo de
investigación, pero si bien no podemos evitarlas, podemos controlarlas.
Una forma de control es hacerlas explícitas, tratando de conocer de
dónde proceden y cuánto pueden influir en los resultados. Si nosotros
tenemos claro cuáles son nuestras preferencias, estaremos más
capacitados para prevenir las desviaciones o sesgos que se pudieran
introducir en el trabajo, que aquellos otros que creen que sólo los
guía el "interés científico".
El contexto social en el cual estarnos inmersos. La
influencia del contexto social en el cual trabajamos, no siempre es
reconocida, y mucho menos explicitada. Está relacionada con los
estímulos económicos y de otro tipo, como son- publicación, promoción,
prioridad, que se disponen para algunos temas en detrimento de otros.
El grado o nivel de conocimiento que tengamos acerca del problema planteado. Debemos
tener bien claro el campo del conocimiento en que se inscribe el
problema y nuestra capacidad académica para abordarlo. El trabajo
interdisciplinario amplía la capacidad del equipo investigador pues
permite abordar los problemas desde distintas perspectivas y más
integralmente.
El interés personal por la actividad científica. Nuestro
interés personal por la actividad científica es fundamental. Lo
consideramos así porque la experiencia nos indica que la investigación,
además de conocimientos, requiere por parte de¡ investigador, una
importante cuota de interés por este tipo de trabajo. Sin interés, el
planteo de preguntas, la búsqueda de respuestas, de antecedentes, de
datos, de explicaciones, no es fructífera y no hay estímulos que
conduzcan la actividad para saber siempre algo más sobre el problema
elegido. Esta tarea, que es apasionante para el investigador
interesado, se vuelve pesada y tediosa para quien asume el trabajo como
obligación. Por otra parte, el componente de creatividad que abre el
camino de¡ conocimiento no surge si no lo impulsa el interés por el
problema que se está investigando.
¿Cómo tomamos la decisión?
Además
de la observación estructurado, podemos recurrir a otras fuentes donde
encontrar un problema para investigar. Supongamos que urgando en los
distintos registros hospitalarios encontramos algunos problemas
vinculados con-.
- las opiniones y actitudes de la población respecto de la utilización de¡ servicio-,
- el funcionamiento de la institución,
- la influencia que el servicio tiene en el comportamiento sanitario de la comunidad-,
-
los factores que hacen posible que la enfermedad se instale (agentes
patógenos, factores de¡ ambiente, condiciones de¡ estado general de
salud de las personas).
Para elegir el
problema nos tomaremos todo el tiempo necesario, teniendo en cuenta que
para llegar a la decisión final es necesario estudiar previamente qué
posibilidades existen, o dicho en otros términos, qué factibilidad hay
de que pueda llevarse a cabo la investigación de¡ problema elegido.
ELEMENTOS QUE INTERVIENEN EN LA ELECCION DEL PROBLEMA
PLANIFICACION Y ORGANIZACIÒN ANTES DE COMENZAR A INVESTIGAR
Todo
debemos preverlo antes, y más aún, tenemos que estar en condiciones
predecir cuáles han de ser las posibles dificultades que encontraremos
par disponer, en su momento, de un recurso para contrarrestar sus
efectos y asegura la continuidad de¡ proceso.
Tengamos presente
que la investigación intenta conocer la realidad y ésta no es estática
y mucho menos inmutable. No caigamos en el error de creer que
laboriosidad que exige la organización de la investigación nos hace
"perder tiempo".
Aquellos que se inician en la actividad
científica calculan que en uno o dos meses pueden preparar el diseño y
comenzar a investigar inmediatamente. Ignoran que todo el tiempo que
invierten en la preparación de la investigación es tiempo que ganan
para realizar el trabajo de campo o la recolección de datos y para el
análisis de los materiales recogidos.
También ignoran que desde
el momento en que alguna situación problemática les llama la atención y
comienzan a observar el fenómeno planteándose preguntas y respuestas
tentativas, ya iniciaron el proceso que, casi inadvertidamente, los
conducirá al planteamiento del problema y a la búsqueda de un camino
(método) que los lleve hasta la explicación buscada.
ESCRIBIR LA PREGUNTA CIENTIFICA
Una forma de plantear el problema como pregunta científica es la siguiente :
delimitando la ubicación temporal y geográfica de¡ problema,
estableciendo el período o momento en que se observa, así como el lugar en que se produce,
individualizando
a los grupos o personas que están afectados por el problema, pues estos
serán la fuente de los datos necesarios para el estudio. De esta forma
podemos evaluar si es posible tener acceso o no a las unidades de
observación,
especificando el contexto en el
cual está inserto, las condiciones sociopolíticas y económicas que
pueden gravitar sobre el problema,
estableciendo sus conexiones con otras áreas o la influencia que éstas puedan ejercer sobre el problema a estudiar-,
prediciendo las posibles consecuencias que se producirían si no se tomaran medidas para resolver el problema observado;
especificando la utilidad que podrían tener los resultados que arroje la investigación a realizar.
En
lìneas genrales podemos expresar a la pregunta científica como el inico
del final del trabajo de investigación, “ el 60 % de un trabajo de
investigaciòn se define con la pregunta de investigaciòn “ Matthos.
CUESTIONAMIENTOS
A qúe se le denomina ESTRUCTURACIÓN METODOLÓGICA
Cuál de las propuestas de las FASES DE LA INVESTIGACIÒN considera más útil y por que
Cúal de las FASES DE INVESTIGACIOON considera más importante y por qué
Cúales son los componentes de LA ESTRUCTURACIÒN METODOLOGICA
Esquematice la ESTRUCTURACION METODOLOGICA de su trabajo de investigación
BIBLIOGRAFIA
Calani F..:RESOLUCION DE PROBLEMAS, Edt. propia Ed. S/n. UMSA-Fac, medicina La Paz-Bolivia Pags. Inext.
Word
Health Organization and Center for Disease Control.:INVESTIGATION
POBLATIONAL , Edt. OMS-OPS- Min.Salud Bolivia Ed. 2da. Pags. Inext.
Zenteno L, Limachi C.:COMO REALIZAR UN ENSAYO , Edt. Propia Ed. 1ª. FAC. ODONTOLOGÍA.Pags. 12-24
Hernandez Salpierri H, Fernandez C, Baptista P.:METODLOGIA DE LA INVESTIGACION, España Edt. Mc Graw Hill Ed. 2ª. Pags. Inext.
Armijo F.:INDICADORES DE SALUD, documento metodològico, Bolivia Edt. INE-BOLIVIA ed. Versiòn Final 1999 Pags, Inext.
Cannales et al .:METODOLOGIA DE LA INVESTIGACIÒN , Ed. OPS/OMS, Edt. 1, Pags. Inext.
Calani F..:RESOLUCION DE PROBLEMAS, Edt. propia Ed. S/n. UMSA-Fac, medicina La Paz-Bolivia Pags. Inext.
Experto no es aquel que cuenta con un título , si no aque que se aboca
a perfeccionar susu concimientos sobre una determinada área, ejemplo
los campasinos son expertos en el arado de la tierra.
Observaciòn , no solo se refiere a la utilizaciòn del sentiido de la
vista sino a todo s los sentidos en su conjunto, el buen investigador
aquiere la observación crítica con la práctica y el conocimiento causal.
Existe una frase NADIE PUEDE VOLVER A INVENTAR LA POLVORA, eso es
cierto pero se puede mejora la calidad de esta informaciòn, por jemplo
los Chinos inventaronb la computadora en su forma primitiva, nuestros
mayas , quechuas y aymaras crearon y revoluci9onaron la siembra ,
conocimientos que hoy se han mejorado dando origen a la tecnología
agropecuaria, en el área médica la utilizaciòn de medicina hervolaria
dio origen a la medicina occidental y al uso de medicqmentos .
9
'Planteamiento de un problema de investigación'
'Planteamiento de un problema de investigación'
'Planteamiento de un problema de investigación'
'Planteamiento de un problema de investigación'
'Planteamiento de un problema de investigación'
'Planteamiento de un problema de investigación'
'Planteamiento de un problema de investigación'
'Planteamiento de un problema de investigación'
Problema es aquella situación, FENÓMENO, hecho o proceso que no responde a nuestras expectativas.
'Planteamiento de un problema de investigación'



Yini Abreu  numero28 Yini Abreu numero28 24/01/2008 a las 20:42
Procedimientos de Evaluación y Selección de Proyectos de I+D de la Dirección General
de Investigación
 
Enero de 2006
 
 
Todo el proceso de
evaluación de Proyectos de Investigación de la convocatoria de la Dirección General
de Investigación (DGI) está basado en procedimientos de “peer review”
(evaluación por sus pares). Este tipo de evaluación por pares se ejecutar en la
práctica de dos maneras: por un lado, la evaluación por pares anónima,
individualizada de cada proyecto y no presencial, y por otro, la evaluación por
paneles de expertos (presencial e identificada); ambos procedimientos se
realizan de manera sucesiva y/o complementaria.
Aspectos
específicos de la evaluación de la convocatoria de proyectos

En concreto, en la
convocatoria de proyectos de la
DGI (la última: BOE 28/12/2005) el procedimiento de concesión
está regulado en el apartado noveno y tiene dos etapas bien definidas.
En la primera
etapa, una vez recibidas en DGI las solicitudes de proyectos, se envían a la Agencia Nacional
de Evaluación (ANEP) para que los informe por el procedimiento de evaluación
por pares anónimo y no presencial. Los tres criterios de evaluación sobre los
que tiene que informa la ANEP
están fijados en la convocatoria (apartado noveno). La forma más usual que
tiene la ANEP de
realizar este trabajo es el envío telemático de cada proyecto a dos o más investigadores expertos en el tema y pedirles un
informe. La elección de estos evaluadores se realiza mediante criterios de
especialización a juicio y elección del coordinador científico de la ANEP en esa área temática.
Cada evaluador estudia proyectos concretos y no conoce el resto de los
proyectos presentados en ese Programa o Subprograma Nacional. Este
procedimiento permite una valoración en profundidad de cada solicitud presentada.
Por otro lado, e
independientemente, la
Directora General de Investigación (asesorada por los
gestores de los Programas Nacionales del Plan Nacional de I+D+i) nombra, para
cada programa o subprograma del Plan Nacional en el que se han convocado ayudas
a proyectos de investigación, una Comisión de Selección formada por expertos
del mundo académico y tecnológico. Estas comisiones de selección van estudiando
e informando los proyectos de forma individualizada y en reuniones conjuntas.
Los criterios de evaluación de estos paneles son seis y están fijados en la
correspondiente resolución de convocatoria (apartado noveno). Cada miembro de
cada comisión de expertos estudia un grupo de proyectos de temáticas afines a
su especialización y que estén dentro del mismo Programa-Subprograma Nacional, y, en general, cada solicitud es informada por, al
menos, dos expertos. Este procedimiento permite una valoración comparativa de
cada proyecto puesto en el contexto de todas las solicitudes presentadas.
Como culminación
del proceso de selección se realiza una reunión conjunta, por cada programa (o
subprograma) nacional, de los miembros de la comisión de expertos y los
coordinadores y ayudantes de coordinador de la ANEP. En esta reunión se
revisa de forma pública e individualizada cada proyecto y se compara con todos
los proyectos presentados en la convocatoria del Programa Nacional
correspondiente. De forma consensuada entre todos los asistentes a la reunión
(miembros de la ANEP
y científicos expertos propuestos por la
DGI), y tras la discusión individualizada y contrastada de
toda la información acumulada sobre cada proyecto (ANEP más expertos), se
elabora una lista priorizada de todos los proyectos presentados (de mayor a
menor prioridad) y una propuesta de financiación para cada proyecto. También se
acuerda por consenso una puntuación (sobre 100 puntos) para cada solicitud, que
refleja más la priorización dentro del conjunto que la valoración de su
calidad, y se consensúan los elementos del informe científico técnico
correspondiente. Esta reunión da lugar a un acta oficial que consigna los
resultados alcanzados por consenso. Para dar 
una idea de la magnitud del proceso, conviene recordar que el número de
expertos involucrados en las comisiones de selección de la DGI ha sido de 708 nombrados
por la Directora
General en la convocatoria 2005, a los que se añaden
146 en representación de la
ANEP.
Por último, los
gestores del Programa Nacional correspondiente, realizan los cálculos
detallados de los presupuestos de cada proyecto (añaden costes indirectos y
otros elementos de detalle presupuestario) y estiman los proyectos que podrán
ser financiados, de acuerdo con los fondos disponibles, determinándose así la
nota de corte de cada Programa o Subprograma Nacional, por debajo de la cual
los proyectos no alcanzan la prioridad suficiente para ser financiados.
Representa un elemento fundamental en el proceso
de investigación.
Luego de formular un problema, el investigador enuncia la hipótesis,
que orientará el proceso
y permitirá llegar a conclusiones concretas del proyecto que
recién comienza.
La hipótesis
bien formulada tiene como función
encausar el
trabajo
que se desea llevar al efecto. Hayman (1974) cita: además que
aclaran acerca de cuales son las variables,
que han de analizarse y las relaciones que existen entre ellas, y permiten
derivar los objetivos
del estudio constituyéndose en la base de los procedimientos
de investigación.
Tamayo (1989), señala que éstas se
constituyen en un eslabón imprescindible entre la teoría
y la investigación que llevan al descubrimiento de un hecho. Las razones
anteriormente esgrimidas hacen suponer que éstas ocupan un lugar primordial en
la investigación al proporcionar los elementos necesarios que permitirán llegar
a los datos
necesarios que permitirán llegar a los datos y
resolver el problema planteado.
DEFINICIÓN DE HIPÓTESIS
Es una proposición que establece relaciones,
entre los hechos; para otros es una posible solución al problema; otros mas
sustentan que la hipótesis
no es mas otra cosa que una relación entre las variables,
y por último, hay quienes afirman que es un método de
comprobación.
La hipótesis como proposición que
establece relación entre los hechos
:
una hipótesis es el establecimiento de un vínculo entre los hechos que el
investigador va aclarando en la medida en que pueda generar explicaciones
lógicas del porqué se produce este vínculo.
Tamayo (1989 – 75): afirma que:
"La hipótesis es una proposición que
nos permite establecer relaciones entre los hechos. Su valor
reside en la capacidad para establecer mas relaciones entre los hechos y
explicar el por que se producen".
Arias (1897 – 55) asegura que:
La hipótesis tiene como propósito llegar a
la comprensión del porqué entre dos elementos se establece algún tipo definido
de relación y establece que la hipótesis:
"Es una proposición respecto a alguno
elementos empíricos y otros conceptos y sus relaciones mutuas, que emerge mas
allá de los hechos y las experiencias conocidas, con el propósito de llegar a
una mayor comprensión de los mismos".
La hipótesis como una posible solución
del problema
: la hipótesis no es
solamente la explicación o comprensión del vínculo que se establece entre los
elementos inmersos en un problema, es también el planteamiento de una posible
solución al mismo.
Pardinas (1974 – 132):
"La hipótesis es una proposición
anunciada para responder tentativamente a un problema".
Deben ser sustentada por Van Dalen (1974 –
170) conduce a una definición en la que se establece que:
"La hipótesis son posibles soluciones
del problema que se expresan como generalizaciones o proposiciones. Se trata de
enunciados que constan de elementos expresados según un sistema
ordenado de relaciones, que pretenden describir o explicar condiciones o
sucesos aún no confirmados por los hechos".
Hipótesis como relación entre variables: Kerlinger (1985 : 12) expresa; una expresión de las
relaciones existentes entre dos o mas variables, la hipótesis se formula en
términos de oración aseverativa por lo tanto:
"Es una expresión conjetural de la
relación que existe entre dos o más variables. Siempre aparece en forma de
oración aseverativa y relaciona de manera general o específica, una variable
con otra.
Hipótesis como método de
comprobación
: para otros
investigadores, la hipótesis es algo mas que el establecimiento de relaciones
entre elementos, o la posible solución a un problema; por lo tanto; afirman que
es fundamentalmente y ante todo, una herramienta de comprobación de los
supuestos con la realidad.
Abouhamad (1965:74) sostiene:
"La hipótesis es una proposición,
condición o principio que se supone sin certeza con el fin de derivar sus
consecuencias con hechos lógicos y, por este método comprobar su concordancia
con hechos conocidos o que puedan determinarse".
IMPORTANCIA DE LA HIPÓTESIS
Las hipótesis son el punto de enlace entre
la teoría
y la observación.
Su importancia en que dan rumbo a la investigación l sugerir los pasos y procedimientos
que deben darse en la búsqueda del conocimiento.
Cuando la hipótesis de investigación ha sido
bien elaborada, y en ella se observa claramente la relación o vínculo entre dos
o mas variables, es factible que el investigador pueda:
Elaborar el objetivo,
o conjunto de objetivos
que desea alcanzar en el desarrollo
de la investigaciónSeleccionar el tipo de diseño
de investigación factible con el problema planteado.Seleccionar el método, los instrumentos y las técnicas
de investigación acordes con el problema que se desea resolver, ySeleccionar los recursos,
tanto humanos como materiales,
que se emplearán para llevar a feliz término la investigación planteada.
ORIGEN DE LA HIPÓTESIS
Selltiz (1974:53) señala:
"Una hipótesis puede estar basada
simplemente en una sospecha, en los resultados de otros estudios y la esperanza
de que una relación entre una o mas variables se den en el estudio en cuestión.
O pueden estar basadas en un cuerpo de teorías
que, por un proceso de deducción lógica,
lleva a la predicción de que, si están presentes ciertas condiciones, se darán
determinados resultados.
La elaboración de una buena hipótesis tiene
como punto de partida el
conocimiento
del área en la que se desea hacer la investigación, sin este conocimiento
previo se corre el riesgo de
recorrer caminos ya transitados y trabajar en temas ya tratados
que carecen de interés
para la
ciencia
.
Si la hipótesis se basa u origina de otros
estudios, la investigación estará en clara relación con un cuerpo de
conocimientos ya existentes, probados, por lo que el
trabajo
será una contribución que permitirá reforzar ese cuerpo de
conocimientos.
Función de la Hipótesis:
Cuando se describe su importancia, se
plantean algunas de las funciones que
ellas cumplen, porque además de ser guías en el proceso de investigación,
también pueden servir para indicar que observaciones son pertinentes y cuales
no lo son con respecto al problema planteado.
La hipótesis puede señalar loas relaciones o
vínculos existentes entre las variables y cuales de ellas se deben estudiar,
sugieren una explicación en ciertos hechos y orientan la investigación en
otros, sirve para establecer la forma en que debe organizarse eficientemente el
análisis
de los datos. Hernández agrega que entre otras funciones, su objetivo
principal, es de aprobar y sugerir teorías.
Formulación de Hipótesis:
Es un planteamiento que elabora el
investigador a partir de la observación
de una realidad que tiene explicación en una teoría, por lo tanto se afirma que
ellas representan un punto medio entre la teoría y la realidad.
CLASIFICACIÓN DE LA HIPÓTESIS
La hipótesis puede adoptar diferentes y
clasificarles de acuerdo a la convivencia de cada autor:
Hipótesis general: es cuando trata de responder de forma amplia a
las dudas que el investigador tiene acerca de la relación que existe entre
las variables.Hipótesis específica: es específica aquella hipótesis que se deriva
de la general, estas tratan de concretizar a la hipótesis general y hace
explícitas las orientaciones concebidas para resolver la investigación.Hipótesis estadística: la hipótesis estadística
es aquella hipótesis que somete a prueba y expresa a las hipótesis
operacionales en forma de ecuaciones
matemáticas.Problema: se quiere determinar si el entrenamiento
en técnicas
de estudio
mejora el rendimiento académico de los estudiantes de la UNELLEZ.Hipótesis específica: los alumnos del subproyecto lenguaje
y comunicación
del I semestre, programa educación
integral, entrenados en técnicas
de estudio
, obtendrán altas calificaciones al mejorar sus técnicas
de aprendizajes.Hipótesis operacional: el promedio de rendimiento de los alumnos del
subproyecto lenguaje
y comunicación,
sometidos a entrenamientos en técnicas de estudio (grupo
experimental), será mayor que el promedio de rendimiento de aquellos
alumnos no sometidos al entrenamiento
(grupo
control).Hipótesis estadística: Hipótesis nula: (X1) = (X2); no existe relación en los
promedios obtenidos por los estudiantes entrenados en técnicas de estudio
(X1) y los no entrenados (X2)Hipótesis alternativas: X1 > X2; los alumnos sometidos a
entrenamientos en técnicas de elaboración de resumen (X1) obtuvieron
mejor promedio de rendimiento que aquellos alumnos que no recibieron
ningún tipo de entrenamiento (X2).
Requisitos para la
elaboración de hipótesis:

La formulación de hipótesis es una tarea que
se logra cuando se cumple con algunos requisitos, entre ellos:
Formularse en términos claros, es decir, emplear
palabras precisas que no den lugar a múltiples interpretaciones. La
claridad con que se formulen es fundamental, debido a que constituyen una
guía para la investigación.Tener un referente empírico, ello hace que pueda
ser comprobable. Una hipótesis sin referente empírico se transforma en un
juicio de valor
al no poder
ser comprobable, verificable, carece de validez para la ciencia.
Evaluación de la Hipótesis:
Existe algunos criterios que sirven de guía
para determinar si la hipótesis cumple con algunos requisitos Mc Güigan (1971:
67) afirma:
Permite ser comprobada, es decir, establece
claramente su referente empírico.Está en correlación y armonía con el conjunto de
las hipótesis del proyecto
de la investigaciónResponde en términos claros y precisos al
problema planteado, es decir, señala la relación que se espera de las
variables.Son susceptibles de ser cuantificadas.
Dificultades en la Elaboración de la Hipótesis:
La hipótesis resulta una tarea ardua, de
difícil elaboración, esta dificultad generalmente proviene de circunstancias
tales como:
Un planteamiento poco claro del problema a
investigarFalta de conocimiento del marco
teórico
de la investigación como consecuencia de la poca claridad que
se tiene del problema que se desea resolver.Carencia de habilidad para desarrollar y
utilizar el referente teórico – conceptual.En general, por el desconocimiento de los procesos
de la
ciencia
y la investigación, por lo tanto ausencia de criterios para la
elaboración de hipótesis y selección
de técnicas de investigación adecuadas al problema que se investiga.
VARIABLE
La definición más
sencilla, es la referida a la capacidad que tienen los objetos y las cosas de
modificar su estado
actual, es decir, de variar y asumir valores
diferentes. Sabino (1980) establece:
"entendemos por variable cualquier característica
o cualidad de la realidad que es susceptible de asumir diferentes valores,
es decir, que puede variar, aunque para un objeto determinado que se considere
puede tener un valor fijo".
Briones (1987 : 34) define:
"Una variable es una propiedad,
característica
o atributo que puede darse en ciertos sujetos o pueden darse en grados o
modalidades diferentes. . . son conceptos clasificatorios que permiten ubicar a
los individuos en categorías o clases y son susceptibles de identificación y medición".
CLASIFICACIÓN DE LAS VARIABLES
Variable Independiente:
es aquella característica o propiedad
que se supone ser la causa del fenómeno estudiado. En investigación
experimental se llama así, a la variable que el investigador manipula.
Variable Dependiente:
Hayman (1974 : 69) la define como propiedad
o característica que se trata de cambiar mediante la manipulación de la
variable independiente.
La variable dependiente es el factor que es
observado y medido para determinar el efecto de la variable independiente.
Variable Interviniente:
Son aquellas características o propiedades
que de una manera u otra afectan el resultado que se espera y están vinculadas
con las variables independientes y dependientes.
Variable Moderadora:
Según Tuckman: representan un tipo especial
de variable independiente, que es secundaria, y se selecciona con la finalidad
de determinar si afecta la relación entre la variable independiente primaria y
las variables dependientes.
Variables Cualitativas:
Son aquellas que se refieren a atributos o
cualidades de un fenómeno. Sabino (1989 : 80) señala que sobre este tipo de
variable no puede construirse una serie numérica definida.
Variable Cuantitativa:
Son aquellas variables en las que
características o propiedades pueden presentarse en diversos grados de
intensidad, es decir, admiten una escala
numérica de medición.
Variables Continuas:
Son aquellas que pueden adoptar entre dos
números puntos de referencias intermedio. Las calificaciones académicas (10.5,
14.6, 18.7, etc.)
Variables Discretas:
Son aquellas que no admiten posiciones
intermedias entre dos números. Ej., en Barinas la división de territorial la
constituyen 11 municipios por no (10.5 u 11.5 municipios).
Variables de Control:
Según Tuckman: La define como esos factores
que son controlados por el investigador para eliminar o neutralizar cualquier
efecto que podrían tener de otra manera en el fenómeno observado.
Operacionalización de la Variable:
Es un paso importante en el desarrollo
de la investigación. Cuando se identifican las variables, el próximo paso es su
operacionalización.
Comprende tres tipos de definiciones:
Nominal: es el nombre de la variable que le interesa al
investigador.Real: consiste en determinar las dimensiones que contienen las
variables nominales.Operacional: o indicadores.
Esta da las base para su medición y la definición de los indicadores
que constituyen los elementos mas concretos de una variable y de donde el
investigador derivará los items o preguntas para el instrumento con que
recolectará la información.
BIBLIOGRAFÍA
MARQUÉZ R. Omar A. El Proceso de la Investigación en las
Ciencias
Sociales
. Ediciones de la Universidad
Ezequiel Zamora colección Docencia Universitaria.
Cómo se Justifica la Investigación
La justificación es
la sección de tu trabajo de grado donde expresas el porqué de tu estudio, la
razón de ser de su realización.




Consiste en
indicar las razones de peso que tiene el investigador para el estudio del
problema, el porqué  se realiza el estudio y a quién beneficia. Aquí se
debe destacar tres aspectos:



Ø      El teóricos.

Ø      El práctico, y

Ø      El Metodológico



El Aspecto Teórico : está centrado en presentar las razones teóricas que
justifican la investigación, es decir, señala todos los conocimientos que
brindará el trabajo sobre el objeto investigado.



El Aspecto Práctico : indica la aplicabilidad de la investigación, su
proyección en la sociedad, quienes se benefician de ésta, ya sea una
organización o grupo social.



El Metodológico : indica el aporte de la investigación a otras investigaciones
así como el diseño utilizado.



Es necesario
que cuando plantes la justificación de tu investigación dejes bien en claro en
que se basa su importancia , que beneficios genera y a quién, cuales son sus
aportes . Además toma en cuenta los siguientes criterios de justificación para
que los analices y verifiques si tu investigación los satisface.



Si las
soluciones a las que llegan resuelven la problemática planteada tu
investigación posee utilidad práctica y se justifica por ello.



Si la
investigación o sus resultados generan nuevos conocimientos, ya sea por
descubrimientos o por el planteamiento de nuevas teorías, por el conocimiento
en si mismo que genera, entonces posee utilidad metodológica.



Si se crea
una nueva metodología o procedimiento posee utilidad metodológica.



Además debes
evaluar su relevancia social en cuanto a los aportes sociales que genera para
un grupo humano en específico, para una comunidad o para la sociedad.



Ahora bien,
ten presente que la justificación del estudio no se hace con todos estos
criterios, basta que cumpla sólo uno y ya está justificada.
Concepto
Información identificada por un nombre o una
dirección que puede tomar un valor, o un conjunto de valores, en un dominio
dado, en el curso del desarrollo de un programa.
La variable es todo aquello que varía y son
valores cuantitativos y pueden incluir desde grados de medida hasta nombres.
Pueden variar a nivel tanto individual como social. Además toman valores
(generalmente numéricos) dentro de un rango delimitado.
A menudo se confunde una variable con un
hecho y a la ves, este se confunde con un concepto. Cuando esto sucede estamos
frente a una reificación.
(Reificación término empleado en
filosofía que significa, etimológicamente, `convertir algo en cosa', `cosificar'.
En cierto modo, puede entenderse como un proceso de transformación de
representaciones mentales en cosas, o de sujetos en cosas. En los procesos de
reificación, las nociones abstractas son concebidas como objetos. Pero también
los sujetos y las relaciones dinámicas pueden quedar convertidas en elementos
estáticos, que pueden ser sometidos a un dominio como si se tratara de cosas o
elementos estáticos. La filosofía marxista emplea el término `reificación' como
un rasgo del trabajo alienado, en el que los productos del trabajo se enfrentan
como si fueran cosas extrañas y separadas del trabajador que las ha elaborado.
Enciclopedia Microsoft® Encarta®)
Para el estudio de las variables se usa,
como en toda ciencia, la observación de los cambios y su relación con cambios
en otras variables.
Aclaración:
Es importante, no confundir los tipos datos
específicos, con datos cuantitativos, a los que se le asigna un rango para
mejorar su expresión, esta aclaración va directamente ligado con la
conceptualización de los tipos de variables.
Tipos
de Variables

Las variables en una investigación se pueden
determinas fácilmente en 2 grande grupos, que son:
·        
Variables
Independientes y Variables Dependientes. (Las variables independientes, son el
resultado del planteamiento de un problema.)
·        
Variables
Cualitativas y Variables Cuantitativas. (Se refieren a la tabulación directa de
la información)
Variables en la investigación
Variables Independientes.
La variable independiente es considerada
como supuesta causa en una relación entre variables; es la
condición antecedente.
Variables Dependientes.
La Variable
dependiente es la consecuencia de sucesos, de la combinación de efectos
causados por una variable independiente.
Acción -- Reacción
Variables Cualitativas
Las Cualitativas como su nombre lo indica,
son aquellas que se refieren directamente a una cualidad, ya sea de un elemento
palpable, o no; esta tipo de variable, se hace muy difícil asignarle un valor,
numérico, por lo que a su vez ella crea constructos hipotéticos, que son vistos
a simple vista, pero no son tangibles.
Variables Cuantitativas
Las cuantitativas son aquellas a las que se
le asigna un valor, numérico, mediante simple tabulación de la información,
también puede darse el caso de asignársele un valor, relativo a una cantidad.
Objetivo:
Especificar las
acciones a realizar para probar la hipótesis planteada, obteniendo asi una información
veras la cual será útil para nuestro conocimientos.
Yini Abreu  numero28 Yini Abreu numero28 24/01/2008 a las 20:52
Sheyla  Santana
#29 

4 tecnico.
Definir Los Sgtes Conceptos:
PLANTEAMIENTO DEL PROBLEMA
JUSTIFICACION VARIABLES HIPOTESIS OBJETIVOS





Planteamiento del problema

Es la delimitación clara y precisa del objeto de la investigación que se
realiza por medio de preguntas, lecturas, encuestas pilotos, entrevistas,
etc.  La función del planteamiento del problema consiste en revelarle al
investigador si su proyecto de investigación es viable, dentro de sus tiempos y
recursos disponibles.
Para tener la idea clara se deben formular una serie de preguntas
orientadoras
Para la elaboración de un problema, entre ellas podemos mencionar a;
Es de interés el tema
Existe información sobre ese fenómeno ò sobre similares
Quien centraliza esa información
Que resultados obtuvieron anteriormente
Es un trabajo inédito
Cuando el investigador da respuesta a los interrogantes planteados, inicia
la selección del tema de la observación directa de la realidad en la que se
encuentra, al mismo tiempo el investigador debe posesionarse de la mayor
cantidad de conocimiento sobre el tema que desea investigar, es decir debe
transformarse en EXPERTO en ese tema ó debe ser asesorado por UN PROFESIONAL
que cuente con ese bagaje de conocimiento, por otra parte las fuentes de información
que se deberán utilizar son tanto directas como indirectas, ente estas pueden y
deben ser primarias secundarias y en muy pocas ocasiones terciarias, lo que
necesitamos es recolectar datos para tener un contexto que nos aclare nuestra
inquietud, al mismo tiempo uno debe realizar este trabajo moroso para entender
los propósito directos e implícitos del investigador.
El punto de partida para la investigación es elegir el tema ò problema , es
establecer mediante una observación cual es la duda o la falta de conocimiento
existente , en la actualidad los investigadores tienen a originar sus ideas
creativas en la simple observación de la realidad en la que vive, en la
revisión critica y lógica de trabajos similares ó diferentes al que desea
realizar, esta bibliografía especializada le permitirá seguir pautas , seguir
brechas en el conocimiento ò incluso transformarlo ò dar origen. Ya que las
incongruencias ó aciertos de estas investigaciones puede ser guías motivadoras
de la investigación, e incluso pueden permitir surgir nuevas ideas en otro
contexto, marco y realidad.
 
Justificación
Expresar las razones por las cuales se va a realizar el trabajo, y los
beneficios que se espera obtener del mismo.
 
Variables
Las
variables son unos elementos que se utilizan para contener datos de distintos
tipos: números, letras, palabras, textos, valores lógicos, etc. El valor
contenido en una variable puede cambiar a lo largo de la ejecución de un
programa. ...




Hipótesis
Planteamiento inicial cuya validez ha de ser confirmada por la experimentación
o el razonamiento.
Objetivos
Especificar las acciones a realizar para probar la hipótesis planteada.
Cheyla Santana 26/01/2008 a las 04:38
Saray Hernandez no. 14 4to técnico Procesadores de
textos Historia
Procesamiento de textos no nación
de la tecnología
informática.
Se desarrolló de las necesidades de escritores más bien que de las de
matemáticos, aunque más adelante se combinara con el campo de las computadoras.
La historia del procesamiento de textos es la historia de la automatización
gradual de los aspectos físicos de la escritura
y la edición, y el refinamiento de la tecnología para ponerla a disposición los
usuarios individuales y corporativos. La invención de la imprenta y de los
tipos móviles en el final de la edad
media
fue el paso inicial en esta automatización. Pero el mayor avance
desde la escritura manual lo
fue la máquina de escribir. Henry Mill, ingeniero inglés
de principios
del siglo XVII, es considerado su inventor. El hecho de que hoy casi no se sabe
nada sobre su invento es evidencia de su carencia del éxito.

Christopher Latham Sholes, con la ayuda de dos colegas, inventó la primera
máquina de escribir aceptada, en 1867. Comenzó a comercializarse en 1874, por
una compañía de fabricación de armas,
llamada Remington & Sons, aunque esta información
es todavía improbable La desventaja principal de este modelo
era que imprimía en la superficie inferior del rodillo, de modo que el
mecanógrafo no podía ver su trabajo hasta que había acabado. La aceptación de
la máquina de escribir fue lenta al principio, pero se facilitó durante los
años próximos gracias a varias mejoras. Éstas incluían: la tecla de mayúsculas,
que permitió mecanografiar letras capitales y minúsculas con las mismas teclas
(1878); impresión en el lado superior del rodillo (1880); y el tabulador,
permitiendo el ajuste de los márgenes (1897). Thomas Edison patentó una máquina
de escribir eléctrica en 1872, pero el primer modelo realizable no fue
introducido hasta los años 20. En los años 30, IBM introdujo una versión más
refinada, la IBM
Electromatic. "Aumentó grandemente las velocidades de
escritura y ganó rápidamente la aceptación en la comunidad de negocios."
En 1964 IBM desarrolló la MT/ST
(máquina de escribir magnética de Tape/Selectric), que combinó las características
del Selectric (una bola con los tipos imresos) con una de cinta magnética. La
cinta magnética era el primer medio de almacenaje reutilizable para la
información mecanografiada. Con esto, por primera vez, el material
mecanografiado podía ser corregido sin tener que escribir de nuevo el texto
entero a máquina. En la cinta, la información se podía almacenar, y usar de
nuevo, corregir, reimprimir tantas veces como fueran necesarias, y después
borrar y reutilizar para otros proyectos.
Este desarrollo
marcó el principio del procesamiento de textos como
se  conoce
hoy.



También introdujo el procesamiento de textos como una idea y concepto
definidos.  El          
término primero fue utilizado en       la comercialización
de la IBM del
MT/ST como "máquina de procesamiento" de textos. Era una traducción
del término alemán textverabeitung, acuñado a finales de los años 50 por Ulrich
Steinhilper, ingeniero de la
IBM. Que lo utilizó como término más exacto para referirse al
acto de mecanografiar. La IBM
lo redefinió "para describir maneras electrónicas de manejar un sistema
estándar de actividades de la oficina 
componiendo, revisando, imprimiendo, y archivando un documento escrito."
En 1969 IBM introdujo la MagCards, tarjetas
magnéticas que se insertaban en una caja unida a la máquina de escribir y
grababan el texto mientras que era mecanografiado. Las tarjetas se podían
entonces utilizar para buscar y reimprimir el texto. Éstos eran útiles sobre
todo a las compañías que tenían que enviar gran cantidad de cartas. Sin
embargo, solamente se podía almacenar un valor
aproximado de una página en cada tarjeta.

En 1972 Lexitron y Linolex desarrollaron un sistema similar de procesamiento de
textos, pero incluyeron las pantallas de visualización y los cassettes de cinta
para el almacenaje. Con la pantalla, el texto podría ser incorporado y ser
corregido sin tener que producir una copia dura. La impresión podría ser
retrasada hasta que el escritor estuviese satisfecho con el material.  El
disquete marcó una nueva etapa en la evolución
de los medios
de almacenaje. Desarrollado por IBM a principios de los años 70 para el uso en
la informática, pronto fue adoptada por la industria
del procesamiento de textos. Vydec, en 1973, parece haber sido el primer
fabricante que produjera un sistema de procesamiento de textos usando los
disquetes para el almacenamiento.
Los medios de almacenamiento anteriores podían guardar solamente una o dos
páginas de texto, pero los primeros discos eran capaces de almacenar 80 a 100 páginas. Este aumento
de la capacidad de memoria
permitió la fácil creación y edición de documentos de páginas múltiples sin la
necesidad de cambiar el medio en que se almacenaban los datos. Importancia
de los procesadores
La importancia de estos radica en que es un software
informático destinado a la creación y edición de documentos
de texto.
Los procesadores de texto brindan unas u otras posibilidades según la
aplicación de que se disponga. Como regla general básica, todos los
procesadores de texto pueden trabajar con distintos formatos de párrafo,
tamaño y orientación de las fuentes,
efectos de formato, además de contar con las propiedades de poder
cortar y copiar texto, fijar espacio entre líneas y entre párrafos, alinear
párrafos, establecer sangrías y tabulados, crear y modificar estilos, activar
presentaciones preliminares antes de la impresión o visualizar las páginas
editadas. Los procesadores de texto incorporan desde hace algunos años también
correctores automáticos de ortografía
y gramática
así como diccionarios
multilingües y de sinónimos que facilitan sobremanera la labor de redacción.






Descripción de los procesadores de textos  
MICROSOFT WORD: De todos los procesadores de texto
conocidos hasta el momento, el del paquete Microsoft Office se ha convertido en
poco menos que un estándar de referencia casi obligada, dado el elevado
porcentaje de usuarios que lo han instalado en su ordenador y lo utilizan.


LOTUS WORD PRO:
Una de las alternativas más populares a
Microsoft Word es este procesador de textos, incluido en el paquete de software
de escritorio de Lotus. Para gustos se pintan colores, pero lo cierto es que
los usuarios que se decanten por este producto no estarán haciendo una mala
elección.                  


WORD PERFECT
: No podía faltar el tercero en discordia, que
en su día llegó a ser el   más popular de su género entre los
usuarios, hasta mediados de los noventa. El procesador de textos de la suite de
Corel presenta un despliegue de innovadoras características que demuestran el
interés por parte de sus promotores en volver a hacer de este programa un
producto puntero capaz de competir en el mercado con Microsoft Word.  WORD
PAD
: Instalado por defecto en todas las versiones de los sistemas
operativos de Windows, se le podría considerar el "hermano pequeño"
de Microsoft Word. Es la opción ideal para aquellos usuarios que necesitan de
forma esporádica un procesador con el que dar cierto estilo estético a sus
escritos, sin buscar un acabado de apariencia profesional ni excesivas
florituras ornamentales.

BLOCK DE NOTAS
: También presente por defecto en todas las
instalaciones del sistema de Windows, independientemente de la versión, este
programa se muestra como la opción ideal para usuarios austeros. Al tratarse de
una aplicación de posibilidades reducidas, no tendrán que familiarizarse con un
complejo entorno lleno de funciones que nunca van a utilizar. PARA
MACINTOSH:
Los promotores de procesadores de texto no han discriminado
a los usuarios de Mac Os, ni mucho menos: la propia Microsoft se encarga de
portar todas las versiones de Word a los ordenadores de la manzana.
Saray Hernandez Saray Hernandez 29/01/2008 a las 01:47
Saray Licelotte HernandezlNo. 14 4to técnico,
Materia: multimedia  ¿Que significa Multimedia?

Es un término que se aplica a cualquier objeto que usa simultáneamente
diferentes formas de contenido informativo como texto, sonido, imágenes,
animación
y video para
informar o entretener al usuario. También se puede calificar como multimedia
a los medios
electrónicos
(u otros medios) que permiten almacenar y presentar contenido
multimedia. Multimedia es similar al empleo tradicional de medios
mixtos
en las artes
plásticas
, pero con un alcance más amplio. Se habla de multimedia
interactiva
cuando el usuario tiene cierto control sobre la presentación
del contenido, como qué desea ver y cuándo desea verlo.  Hipermedia puede
considerarse como una forma especial de multimedia interactiva que emplea
estructuras de navegación más complejas que aumentan el control del usuario
sobre el flujo de la información.
 Historia de la Multimedia: MULTIMEDIA
(WORLD WIDE WEB)
Apareció por fin el World Wide Web, la Gran Telaraña
Mundial (Magna Maraña Mundial, traducción poco exacta pero que imita al nombre
original). Aquí ya podemos hablar realmente de Multimedia. Como en casi todo,
la revolución multimedia empezó poco a poco. Evidentemente, todo está relacionado,
y también los ordenadores eran cada vez más potentes, y cada vez hay más
usuarios con ordenadores domésticos. Todos conocemos la Web, así que no vamos a
explicar en qué consiste. Incluso los nuevos usuarios que se están
"enganchando" a la red no conciben Internet fuera de un entorno
gráfico.  Investiga el papel de la Multimedia en el
computador:

El término Multimedia en el mundo de la computación

es la forma de presentar información que emplea una combinación de texto,
sonido,

imágenes, vídeo y animación. Más comunes podemos mencionar juegos, programas de
aprendizaje y material de referencia.
La mayoría de las aplicaciones multimedia incluyen asociaciones predefinidas

conocidas como hipervínculos o enlaces, que permiten a los usuarios moverse

por la información de modo intuitivo.
La conectividad que proporcionan los hipertextos hace que los programas
multimedia no sean presentaciones estáticas con imágenes y sonido, sino una
experiencia interactiva infinitamente variada e informativa.
Las aplicaciones multimedia son programas informáticos, que suelen estar
almacenados en CD-ROMs y claro que pueden residir en páginas de Web.
La vinculación de información mediante enlaces se consigue mediante
programas o lenguajes
informáticos           
especiales como el HTML empleado para crear páginas web.
Las aplicaciones multimedia suelen necesitar más memoria y capacidad de
proceso que la misma información representada exclusivamente en forma de texto.
Una computadora multimedia también necesita memoria adicional para ayudar al
CPU a efectuar cálculos y permitir la representación de complejos gráficos en

la pantalla. Además necesita un disco duro de alta capacidad para almacenar

y recuperar información multimedia, así como una unidad de cd-rom o acceso al

web para obtener los archivos necesarios.
 PROGRAMA MULTIMEDIA
Tomando conciencia de la importancia del uso del computador como herramienta
de apoyo en la enseñanza, se decidió la realización de un programa multimedia,
siguiendo la metodología expuesta por Dick y Carey citada por Fenrich (1997),
que reuniera de manera sistemática y organizada toda la información sobre las
operaciones unitarias absorción y extracción líquido–líquido, básicas en la
formación de un ingeniero químico. Se hizo uso de tres paquetes
computacionales: Visual Basic 6.0, para realizar los programas de cálculo,
Flash 5.0, para crear las animaciones y Director 8.0, para ensamblar toda la
aplicación multimedia. El módulo se estructuró de manera sencilla y con una
interfaz agradable para que el usuario pudiera tener un acceso fácil y ameno.
Se espera que el módulo de enseñanza se convierta en una herramienta de apoyo
para profesores y estudiantes, contribuyendo así al mejoramiento de la
educación superior.
Saray Hernandez Saray Hernandez 29/01/2008 a las 01:48
Saray Licelotte Hernadez No. 14 4to técnico
Procesadores de textos Historia
Procesamiento de textos no nación
de la tecnología
informática.
Se desarrolló de las necesidades de escritores más bien que de las de
matemáticos, aunque más adelante se combinara con el campo de las computadoras.
La historia del procesamiento de textos es la historia de la automatización
gradual de los aspectos físicos de la escritura
y la edición, y el refinamiento de la tecnología para ponerla a disposición los
usuarios individuales y corporativos. La invención de la imprenta y de los
tipos móviles en el final de la edad
media
fue el paso inicial en esta automatización. Pero el mayor avance
desde la escritura manual lo
fue la máquina de escribir. Henry Mill, ingeniero inglés
de principios
del siglo XVII, es considerado su inventor. El hecho de que hoy casi no se sabe
nada sobre su invento es evidencia de su carencia del éxito.

Christopher Latham Sholes, con la ayuda de dos colegas, inventó la primera
máquina de escribir aceptada, en 1867. Comenzó a comercializarse en 1874, por
una compañía de fabricación de armas,
llamada Remington & Sons, aunque esta información
es todavía improbable La desventaja principal de este modelo
era que imprimía en la superficie inferior del rodillo, de modo que el
mecanógrafo no podía ver su trabajo hasta que había acabado. La aceptación de
la máquina de escribir fue lenta al principio, pero se facilitó durante los
años próximos gracias a varias mejoras. Éstas incluían: la tecla de mayúsculas,
que permitió mecanografiar letras capitales y minúsculas con las mismas teclas
(1878); impresión en el lado superior del rodillo (1880); y el tabulador,
permitiendo el ajuste de los márgenes (1897). Thomas Edison patentó una máquina
de escribir eléctrica en 1872, pero el primer modelo realizable no fue
introducido hasta los años 20. En los años 30, IBM introdujo una versión más
refinada, la IBM
Electromatic. "Aumentó grandemente las velocidades de
escritura y ganó rápidamente la aceptación en la comunidad de negocios."
En 1964 IBM desarrolló la MT/ST
(máquina de escribir magnética de Tape/Selectric), que combinó las características
del Selectric (una bola con los tipos imresos) con una de cinta magnética. La
cinta magnética era el primer medio de almacenaje reutilizable para la
información mecanografiada. Con esto, por primera vez, el material
mecanografiado podía ser corregido sin tener que escribir de nuevo el texto
entero a máquina. En la cinta, la información se podía almacenar, y usar de
nuevo, corregir, reimprimir tantas veces como fueran necesarias, y después
borrar y reutilizar para otros proyectos.
Este desarrollo
marcó el principio del procesamiento de textos como
se  conoce
hoy.



También introdujo el procesamiento de textos como una idea y concepto
definidos.  El          
término primero fue utilizado en       la comercialización
de la IBM del
MT/ST como "máquina de procesamiento" de textos. Era una traducción
del término alemán textverabeitung, acuñado a finales de los años 50 por Ulrich
Steinhilper, ingeniero de la
IBM. Que lo utilizó como término más exacto para referirse al
acto de mecanografiar. La IBM
lo redefinió "para describir maneras electrónicas de manejar un sistema
estándar de actividades de la oficina 
componiendo, revisando, imprimiendo, y archivando un documento escrito."
En 1969 IBM introdujo la MagCards, tarjetas
magnéticas que se insertaban en una caja unida a la máquina de escribir y
grababan el texto mientras que era mecanografiado. Las tarjetas se podían
entonces utilizar para buscar y reimprimir el texto. Éstos eran útiles sobre
todo a las compañías que tenían que enviar gran cantidad de cartas. Sin
embargo, solamente se podía almacenar un valor
aproximado de una página en cada tarjeta.

En 1972 Lexitron y Linolex desarrollaron un sistema similar de procesamiento de
textos, pero incluyeron las pantallas de visualización y los cassettes de cinta
para el almacenaje. Con la pantalla, el texto podría ser incorporado y ser
corregido sin tener que producir una copia dura. La impresión podría ser
retrasada hasta que el escritor estuviese satisfecho con el material.  El
disquete marcó una nueva etapa en la evolución
de los medios
de almacenaje. Desarrollado por IBM a principios de los años 70 para el uso en
la informática, pronto fue adoptada por la industria
del procesamiento de textos. Vydec, en 1973, parece haber sido el primer
fabricante que produjera un sistema de procesamiento de textos usando los disquetes
para el almacenamiento.
Los medios de almacenamiento anteriores podían guardar solamente una o dos
páginas de texto, pero los primeros discos eran capaces de almacenar 80 a 100 páginas. Este aumento
de la capacidad de memoria
permitió la fácil creación y edición de documentos de páginas múltiples sin la
necesidad de cambiar el medio en que se almacenaban los datos. Importancia
de los procesadores
La importancia de estos radica en que es un software
informático destinado a la creación y edición de documentos
de texto.
Los procesadores de texto brindan unas u otras posibilidades según la
aplicación de que se disponga. Como regla general básica, todos los
procesadores de texto pueden trabajar con distintos formatos de párrafo,
tamaño y orientación de las fuentes,
efectos de formato, además de contar con las propiedades de poder
cortar y copiar texto, fijar espacio entre líneas y entre párrafos, alinear
párrafos, establecer sangrías y tabulados, crear y modificar estilos, activar
presentaciones preliminares antes de la impresión o visualizar las páginas
editadas. Los procesadores de texto incorporan desde hace algunos años también
correctores automáticos de ortografía
y gramática
así como diccionarios
multilingües y de sinónimos que facilitan sobremanera la labor de redacción.






Descripción de los procesadores de textos  
MICROSOFT WORD: De todos los procesadores de texto
conocidos hasta el momento, el del paquete Microsoft Office se ha convertido en
poco menos que un estándar de referencia casi obligada, dado el elevado
porcentaje de usuarios que lo han instalado en su ordenador y lo utilizan.


LOTUS WORD PRO:
Una de las alternativas más populares a
Microsoft Word es este procesador de textos, incluido en el paquete de software
de escritorio de Lotus. Para gustos se pintan colores, pero lo cierto es que
los usuarios que se decanten por este producto no estarán haciendo una mala
elección.                  


WORD PERFECT
: No podía faltar el tercero en discordia, que
en su día llegó a ser el   más popular de su género entre los
usuarios, hasta mediados de los noventa. El procesador de textos de la suite de
Corel presenta un despliegue de innovadoras características que demuestran el
interés por parte de sus promotores en volver a hacer de este programa un
producto puntero capaz de competir en el mercado con Microsoft Word.  WORD
PAD
: Instalado por defecto en todas las versiones de los sistemas
operativos de Windows, se le podría considerar el "hermano pequeño"
de Microsoft Word. Es la opción ideal para aquellos usuarios que necesitan de
forma esporádica un procesador con el que dar cierto estilo estético a sus
escritos, sin buscar un acabado de apariencia profesional ni excesivas
florituras ornamentales.

BLOCK DE NOTAS
: También presente por defecto en todas las
instalaciones del sistema de Windows, independientemente de la versión, este
programa se muestra como la opción ideal para usuarios austeros. Al tratarse de
una aplicación de posibilidades reducidas, no tendrán que familiarizarse con un
complejo entorno lleno de funciones que nunca van a utilizar. PARA
MACINTOSH:
Los promotores de procesadores de texto no han discriminado
a los usuarios de Mac Os, ni mucho menos: la propia Microsoft se encarga de
portar todas las versiones de Word a los ordenadores de la manzana.
Saray Hernandez Saray Hernandez 29/01/2008 a las 01:49
Breve Historia del Teleproceso Palabra Teleproceso es derivado de "Telecomunicación en Proceso de Datos" (1967). En los 1980's se comienza a dar gran auge al Teleproceso. Comienza con el teléfono, pese que no estaba diseñado para este fin, pero se adecuó. Medios de Telecomunicación: Telegrafía - 1875 Teléfono - 1900 Radio - 1925 Televisión - 1950 Transferencia vía Satélite - 1975 Redes - 1980



Evolución de las redes de computadoras. Telégrafo: utiliza código Morse (representa símbolos con señales largos y cortos).

Teletipo (1928) Intervalos de tiempos iguales Sincronización de emisor y receptor 7 bits: 5 de datos, 1 de inicio y 1 de fin Operaban a 45 - 75 bps El código después pasó a ser el código ASCII de 8 bits y aumentó la velocidad a 110 bps Teleimpresor (1950's) Necesidad de transmisión de ambos lados Se definieron reglas para la sincronización (Protocolos) Usado para fines militares (2a. Guerra Mundial) 1960's Más tráfico y más terminales. Implica mayor control: Mejores Protocolos. Protocolos propietarios no permitían compatibilidad entre máquinas diferentes: nacieron instituciones para unificar las normas. Los mejores protocolos permitían velocidades de 1200 bps. 1970's Mayores velocidades (2400 bps). Internamente, las computadoras manejaban 1 Mbps. Sistemas en Línea. Recepción o envío de datos al punto de origen o destino. Procesamiento en Lotes. Generar paquetes de datos que se hacían llegar a la emisora o receptora. Sistemas en Tiempo Real. Recibe, procesa y responde "inmediatamente" (el ejemplo clásico es el sistema para hacerresarvaciones para avion: en cuanto alguien compra un boleto en México, en todo el mundo los vendedores de boletos saben que ese lugar está ocupado). Procesamiento de Transacciones. Secuencia corta de datos con la información necesaria para su proceso: como el tiempo real es muy costoso, se divide el proceso en paquetes o transacciones. Procesamiento Distribuido. Sistema de computadoras conectado entre sí por una red de comunicaciones. En un verdadero ambiente de procesamiento, se escoge cada sistema computacional para manipular su carga local de trabajo, y la red se diseña para dar soporte a todo el sistema. Procesamiento de Bases de Datos distribuido. Conmutación de Mensajes. Atención a cada uno de los terminales conectados. Conmutación de Paquetes. Atención a transacción de cada uno de los terminales. UN MODELO PARA LAS COMUNICACIONES  La Comunicación es la transferencia de información con  sentido desde un lugar (remitente, fuente, originador, fuente, transmisor) a otro lugar (destino, receptor).    Información es un patrón físico al cual se le ha asignado un significado comúnmente acordado. El patrón debe ser único (separado y distinto), capaz de ser enviado por el transmisor, y capaz de ser detectado y entendido por el receptor.       En la figura se muestra un diagrama a bloques del modelo básico de un sistema de comunicaciones, y se muestran los principales componentes que permiten la comunicación.      Elementos básicos de un sistema de comunicaciones  Comunicación Cuando los humanos conversan, utilizamos canales de comunicación apropiados a las conversaciones y a la proximidad. El canal más común es la palabra hablada, dentro de un rango audible. Canales menos comunes son mensajes embotellados flotando por el océano, convictos golpeando tubos de agua, etc., pero cualquiera que sea el medio y el mensaje, algunos canales son mejores que otros. Las personas pueden escoger un medio conveniente conforme lo permita el tiempo y la oportunidad, pero cuando conversan computadoras, el medio debe ser conocido, que estén todos de acuerdo y debe estar disponible para todos los participantes. Podemos decir que la comunicación se compone de 3 partes: Fuente o Emisor: El que origina información. Medio: Camino o canal por la cual fluye la información emitida por la fuente. Receptor: El que acepta la información.

Elementos de la Comunicación.



ELEMENTOS DEL SISTEMA  En toda comunicación existen tres elementos básicos en un sistema de comunicación:   1.  El Transmisor   pasa el mensaje al canal en forma se señal. Para lograr una transmisión efectiva, se deben desarrollar varias operaciones de procesamiento de la señal. La más común e importante es la modulación, un proceso que se distingue por el acoplamiento de la señal transmitida a las propiedades del canal, por medio de una onda portadora.  2. El Canal de Transmisión  es el enlace eléctrico entre el transmisor y el receptor, siendo el puente de unión entre la fuente y el destino. Este canal puede ser un par de alambres, un cable coaxial o el aire. Sin importar el tipo, todos los medios de transmisión se caracterizan por la atenuación  (disminución progresiva de la potencia de la señal conforme aumenta la distancia). 3.  El Receptor   extrae del canal la señal deseada y la entrega al transductor de salida. Como las señales son frecuentemente muy débiles, debido a la atenuación, el receptor debe tener varias etapas de amplificación. En todo caso, la operación clave que ejecuta el receptor es la demodulación, el caso inverso del proceso de modulación del transmisor, con lo cual vuelve la señal a su forma original.    COMUNICACIÓN DE DATOS   •         La tarea principal de las comunicaciones es mover información            de un lugar a otro. •           Cuando el transmisor y el receptor están relativamente lejos uno del otro, y además se quiere mover altos volúmenes de información  en un período corto de tiempo, entonces será necesario emplear una forma de comunicación máquina-máquina. •           El método más adecuado para esta comunicación es Vía  una señal generada electrónicamente.    
Fuente
TransmisorSistema deTransmisiónReceptorDestinoCadena de bitsSeñal AnalógicaCadena de bitsInformación de entradaSeñal transmitidaSeñal recibidaInformación de salida       COMUNICACIÓN DE DATOS A TRAVÉS DE REDES  Redes de área amplia ( Wan ) : Son todas aquellas que cubren una extensa área geográfica. Son generalmente una serie de dispositivos de conmutación interconectados. La transmisión generada por cualquier dispositivo se encaminará a través de estos nodos internos hasta alcanzar el destino. Conmutación de circuitos: en estas redes se establece un camino a través de los nodos de la red dedicado a la interconexión de dos estaciones. El camino es una secuencia conectada de enlaces físicos entre nodos.En cada enlace, se dedica un canal lógico a cada conexión. Los datos se transmiten tan rápido como se pueda.  En cada nodo, los datos de entrada se encaminan o conmutan por el canal apropiado de salida sin retardos.  Conmutación de paquetes: no es necesario reservar recursos (capacidad de transmisión) en el camino (o sucesión de nodos).   Por el contrario los datos se envían en secuencias pequeñas de unidades llamadas paquetes. Cada paquete se pasa de nodo a nodo en la red siguiendo algún camino entre la estación origen y la destino. En cada nodo, el paquete se recibe totalmente, se almacena y seguidamente se transmite al siguiente nodo.  Retransmisión de tramas: al conseguir con la nueva tecnología una tasa de errores muy pequeña y una velocidad de transmisión elevada, no es necesario adjuntar mucha información de cabecera a cada paquete y por tanto las velocidades de transmisión son elevadísimas comparadas con el sistema de conmutación de paquetes.  Retransmisión de tramas (“Frame Relay”)             Se ha desarrollado teniendo presente las mayores velocidades de transmisión que actualmente  se disponen, así como de las bajas tasas de error.  Mientras que las redes  originales de conmutación de paquetes se diseñaron para ofrecer una velocidad de transmisión al usuario final de 64 kbps, las redes Frame Relay están diseñadas para operar eficazmente a velocidades de transmisión de usuario de 2 Mbps.   ATM:  (Modo de Transferencia Asíncrono), puede interpretarse como una evolución del Frame Relay. La diferencia más obvia entre Frame Relay y ATM es que Frame Relay usa paquetes de longitud variable, llamados “ tramas “, y ATM usa paquetes de longitud fija denominados “celdas “.  ATM se puede considerar a su vez como una evolución de la conmutación de circuitos.  Es tan eficaz que puede ofrecer un canal de velocidad de transmisión constante aunque esté usando una técnica de conmutación de paquetes.  Por tanto, ATM es una ampliación de la conmutación de circuitos en la que se ofrecen varios canales, en los que la velocidad de transmisión para cada canal se fija dinámicamente según las necesidades. RDSI y RDSI de banda ancha  (Red Digital de Servicios Integrados)             Es una red pública de telecomunicaciones mundial que sustituye a las redes de telecomunicaciones existentes, proporcionando una gran variedad de servicios.   La RDSI  se define mediante la estandarización de las interfaces de usuario, y se ha implementado como un conjunto de conmutadores digitales y enlaces que proporcionan una gran variedad de tipos de tráfico, a la vez que servicios de valor añadido. La RDSI  tiene que conseguir la cobertura mundial para la que fe diseñada, está ya en una segunda generación. •          La 1ra. es la RDSI de banda estrecha.•          La 2da. es la RDSI de banda ancha. Redes de Área Local (LAN)             Es una red de comunicaciones que interconecta varios dispositivos y proporciona un medio para el intercambio de información entre ellos.  En LAN se hace uso de redes de difusión en lugar de utilizar técnicas de conmutación. En una red de difusión, no hay nodos intermedios.  En cada estación hay un transmisor/receptor que se comunica con otras estaciones a través de un medio compartido.  Una transmisión desde cualquier estación se recibirá por todas las otras estaciones.      PROTOCOLOS Al conjunto de computadoras que se interconectan se le llama red de computadoras.  Es el conjunto de reglas especiales para la comunicación que el punto final en una conexión usa cuando envía  y recibe señales.  Los puntos que definen un protocolo son: S        La sintaxis       S        La semántica  S        La temporización          Arquitectura de PROTOCOLOS El protocolo debe definir las reglas, convenios, funciones utilizadas, etc...  para la comunicación por medio de red .     Cada capa del protocolo le pasa datos a la siguiente capa y ésta le añade datos propios de control y luego pasa el conjunto a la siguiente capa. Por tanto, cada capa forma unidades de datos que contienen los datos tomados de la capa anterior junto a datos propios de esta capa, y al conjunto obtenido se le llama PDU (unidad de datos del protocolo).   El modelo OSI  Este modelo considera 7 capas:  Física Rige las conexiones de hardware  y el flujo de bytes en la transmisión. Se encarga de la naturaleza de las señales, velocidad de datos, etc. Enlace de datos  Define las reglas para enviar y recibir información de un nodo a otro entre sistemas. Red  Define los protocolos para encaminar los datos, abriendo y   manteniendo el camino en las redes entre los sistemas para asegurar que los datos lleguen al nodo de destino correcto. Transporte  Controla el movimiento de datos entre sistemas . Sesión  Coordina la comunicación entre sistemas, manteniendo la sesión el tiempo que se necesite y desarrollando la seguridad. Presentación  Incluye protocolos que son parte del sistema operativo, define el formato de la información para desplegarla o imprimirla, y como los datos son encriptados y traducidos de otros códigos. Aplicación  Define la forma en que las aplicaciones  interactúan con la red.  Arquitectura de protocolos TCP/IP  Física: es la encargada de utilizar el medio de transmisión de datos. Se encarga también de la naturaleza de las señales , velocidad de datos , etc..  De acceso a la red : es responsable del intercambio de datos entre el sistema final y la red a la cual se está conectado .  Internet ( IP ) : se encarga del encaminamiento a través de varias redes .  De transporte ( TCP ) : se encarga de controlar que los datos emanados de las aplicaciones lleguen correctamente y en orden a su destino .  Aplicación : contiene la lógica necesaria para llevar a cabo las aplicaciones de usuario .     NORMALIZACIONESConceptos Básicos   Proyecto de Norma: El documento que incluya el texto de las especificaciones técnicas sobre una materia determinada, para la que se haya previsto su adopción según el procedimiento de normalización nacional, tal y como resulte de los trabajos preparatorios y haya sido difundido para comentario o información pública.   Norma: Una especificación técnica aprobada por un organismo reconocido de actividad normalizadora para aplicación repetida o continua, cuya observancia no es, en principio, obligatoria y que está incluida en una de las siguientes categorías: •         Norma internacional: norma adoptada por una organización internacional de normalización y puesta a disposición del público.  •         Norma europea: norma adoptada por un organismo europeo de normalización y puesta a disposición del público. •         Norma nacional: norma adoptada por un organismo nacional de normalización y puesta a disposición del público.   Especificación Técnica: una especificación que figura en el documento en el que se definen las características requeridas de un producto, tales como los niveles de calidad, el uso específico, la seguridad o las dimensiones, incluidas las prescripciones aplicables al producto en lo referente a la denominación de venta, la terminología, los símbolos, los ensayos y métodos de ensayo, el envasado, el marcado, el etiquetado, así como los procedimientos de evaluación de la conformidad.   Certificación: La certificación es la acción llevada a cabo por una entidad reconocida como independiente de las partes interesadas, mediante la que se manifiesta que se dispone de la confianza adecuada en que un producto, proceso o servicio debidamente identificado, es conforme con una norma u otro documento normativo especificado.   Servicio de la Sociedad de la Información: todo servicio prestado normalmente a cambio de una remuneración, a distancia, por vía electrónica y a petición individual de un destinatario de servicios. •         "A distancia": un servicio prestado sin que las partes estén presentes simultáneamente.   •         "Por vía electrónica": un servicio enviado desde la fuente y recibido por el destinatario mediante equipos electrónicos de tratamiento (incluida la compresión digital) y de almacenamiento de datos, que se transmite, canaliza y recibe enteramente por hilos, radio, medios ópticos o cualquier otro medio electromagnético.    •         "A petición individual de un destinatario de servicios": un servicio prestado mediante transmisión de datos a petición individual.   La combinación de estos tres elementos distingue los servicios de la sociedad de la información de cualquier otra actividad económica. En cambio, basta con que falte uno solo de estos tres elementos en una prestación de servicios para que no se pueda considerar que la actividad es un servicio de la sociedad de la información.  Proyecto de Reglamento Técnico: el texto de una especificación técnica, de otro requisito o de un reglamento relativo a los servicios, incluidas las disposiciones administrativas, elaborado con intención de aprobarlo o de hacer que finalmente se apruebe como reglamento técnico, y que se encuentre en un nivel de preparación que permita aún la posibilidad de modificaciones sustanciales.     PROCESO DE NORMALIZACIÓN 
Entrada
ExperimentalNormalizaciónPropuestaNormalizaciónHistóricaBorrador denormalización   ORGANISMOS NORMALIZADORES 
Organismos Internacionales
Organismos EuropeosISOOrganización Internacional de Normalización CENComité Europeo de Normalización CEIComisión Electrotécnica Internacional CENELECComité Europeo de Normalización Electrotécnica UITUnión Internacional de Telecomunicaciones ETSIInstituto Europeo de Normas de Telecomunicaciones   
Organismos Internacionales
IETFComité para la Ingeniería en InternetIRTFComité para le Investigación en Internet IABInternet Architecture Board  COMUNICACIONES DE DATOS TRANSMISIÓN DE DATOS   Conceptos y Terminología 1. Terminología utilizada en transmisión de datos     La transmisión de datos entre emisor y receptor siempre se realiza a través de un medio de transmisión.     Los medios de transmisión se pueden clasificar:   Guiados si las ondas electromagnéticas van encaminadas a lo largo                 de un camino físico (pares trenzados, cables coaxiales y fibras          ópticas). •           No guiados transmites  las ondas electromagnéticas sin encauzarlas (propagación a través del  aire , agua , el vacío, etc..) .             1. Terminología utilizada en transmisión de datos      El término Enlace Directo hace referencia al camino de transmisión entre dos dispositivos en el que la señal se propaga directamente del emisor al receptor sin ningún otro dispositivo intermedio.  
Transmisor/
receptorTransmisor/receptorMedio
    Un medio de transmisión puede ser: •          SIMPLEX:   las señales se transmiten solo en una única dirección;                             siendo una estación la emisora y otra la receptora. •          HALF-DUPLEX:   ambas estaciones pueden transmitir pero no                           simultáneamente. •          FULL-DUPLEX:   ambas estaciones pueden igualmente transmitir                    pero ahora simultáneamente. El medio transporta                                   señales en ambos sentidos al mismo tiempo.
FULL-DUPLEX

SIMPLEX:
 HALF-DUPLEX:  
    2. Frecuencia , espectro y ancho de banda   Frecuencia: la señal, que es una función del tiempo, se puede   expresar también en función de la frecuencia; es decir, la señal está constituida por componentes de diferentes frecuencias.  Conceptos en el dominio temporal. Una señal, en función del tiempo, puede ser continua o discreta.              Continua: es aquella en la que la intensidad de la señal varía suavemente en el tiempo.             Discreta:   es aquella en la que la intensidad se mantiene constante durante un determinado intervalo de tiempo, después la señal cambia a otro valor constante.   Los tipos de señales más sencillas, son: •         Periódica: si se repite en intervalos de tiempo fijos llamado periodo.   La onda seno es la más conocida y utilizada de las señales periódicas continuas.  •          En el ámbito del tiempo, la onda seno se caracteriza por la amplitud, la frecuencia y la fase.    3. Relación entre la velocidad de transmisión y el ancho de banda.  •          Se puede definir Banda como la parte que contiene la mayor cantidad de la energía de la señal. •           En el caso de ondas cuadradas (binarias), estas se pueden simular con ondas senoidales en las que la señal sólo contenga múltiplos impares de la frecuencia fundamental. Cuanto más ancho de banda, más se asemeja la función seno (multifrecuencia) a la onda cuadrada. Pero generalmente es suficiente con las tres primeras componentes.  •           Al considerar que el ancho de banda de una señal está concentrado sobre una frecuencia central, al aumentar esta, aumenta la velocidad potencial de transmitir la señal.  •         Pero al aumentar el ancho de banda, aumenta el coste de transmisión de la señal aunque disminuye la distorsión y la posibilidad de ocurrencia de errores.   DATOS. El dato se define como una entidad que transporta información. Podemos clasificar los datos en dos grupos:  - Analógicos: los datos toman valores en un intervalo continuo. Ej: voz, vídeo...



- Digitales: toman valores de un conjunto discreto. Ej: textos, números enteros. Dependiendo del tipo de datos tendremos señales analógicas y digitales. Para transmitir utilizaremos uno u otro tipo de señales en función del tipo de medio del que se disponga. Por ejemplo para transmitir datos digitales mediante señales analógicas usaremos un módem.            Señales  La señal se define como la codificación eléctrica o magnética de los datos.  ·        Señales Analógicas:  El problema principal que presentan estas señales es la atenuación con la distancia lo que provocará que tengamos que intercalar una serie de amplificadores. Sin embargo estos amplificadores tienen un problema añadido y es que además de nuestra señal se amplifica el ruido, por lo que cuanto más largo sea el enlace peor será la calidad de la señal en recepción.  Señales Analógicas La transmisión de informaciones clásicamente ha sido por el uso de señales analógicas, y la voz y el sonido son ejemplos de señales analógicas. Una señal analógica se caracteriza porque su amplitud o nivel puede admitir un número teóricamente infinito de valores posibles: Un amplificador convencional analógico puede reproducir cualquiera de estos infinitos niveles de señal: Si su salida está limitada por ejemplo a 5 Voltios como máximo, puede entregar cualquier nivel comprendido entre 0 y 5 Voltios: 0.001 Volt, 2,345 Volt, 2.346582347 Volts, 3.3913 Volts, etc...   ·        Señales Digitales:  Con las señales digitales eliminamos el problema de la pérdida de calidad, ya que en lugar de amplificadores se emplean repetidores. Los repetidores no se limitan a aumentar la potencia de la señal, sino que decodifican los datos y los codifican de nuevo regenerando la señal en cada salto; idealmente el enlace podría tener longitud infinita.  Señales Digitales Sin embargo, las señales digitales se caracterizan por tener unos niveles de señal bien definidos, y además son pocos, y no hay ningún otro que sea distinto de éstos. En la lógica digital binaria estos niveles, o mejor dicho, estados de la señal, son dos, llamados: - Estado lógico Alto (H) o estado lógico 1. - Estado lógico bajo (L) o estado lógico 0. Es mejor hablar de estados lógicos de la señal mas que de niveles de la señal, y los equipos digitales van a trabajar con estados lógicos. Podemos suponer como primera entrada al tema, que una señal digital presenta el estado lógico alto o 1 lógico cuando hay presencia de tensión eléctrica, y el estado lógico bajo cuando no hay presencia de tensión eléctrica. Esto es lo que normalmente van a manejar los circuitos electrónicos digitales.   Los sistemas de transmisión digitales envían "caracteres" de información, como son letras y números (textos) y también caracteres de control, los cuales constan de varios "bits" de información, los cuales pueden tener dos valores lógicos concretos: "estados alto y bajo" (HI, LOW) o estados lógicos 1 y 0 respectivamente. Según la tabla de caracteres empleada, cada carácter (alfabético, numérico o de control) consta normalmente de un determinado número de bits, y es la combinación de los estados de estos (0 y 1 lógicos de los distintos bits) lo que determina cuál es cada carácter. Una de la más difundida es la tabla ASCII de 8 bits. En general, llamaremos datos a todos estos caracteres de información. Por tanto, vamos a hablar de transmisión de datos cuando nos refiramos a la transmisión de elementos digitales de información.    Medios digitales.  Usaremos normalmente medios digitales ya que podremos conseguir una serie de ventajas tales como:  -         Abaratamiento de la tecnología en la escala de integración a gran-escala(LSI) y a muy gran-escala (VLSI).

- Ruido no aditivo, ya que los repetidores regeneran la señal.

- Uso del medio más eficiente, por ejemplo las tecnologías de multiplexación en el tiempo (técnicas digitales) que son más baratas que la multiplexación en frecuencia (técnicas analógicas).

- Seguridad y Privacidad de los datos. La digitalización de los datos (analógicos o digitales) permite usar cifrado.

- Integración, con el tratamiento digital de los datos analógicos y digitales todas las señales se pueden tratar de forma similar.     

Teléfono :Datos Analógicos

Señales Analógicas      Módem :Datos Digitales

Señales Analógicas                             CODEC : Datos Analógicos

Señales Digitales       Transmisor digital: Datos Digitales

Señales Digitales     Transmisiones por canales analógicos.  Los modems. ------------------------------------------------------ Como se ha dicho anteriormente, una señal digital es una sucesión de bits que pueden tener dos estados eléctricos de tensión bien definidos, correspondientes al 1 y al cero lógicos. Pero las tensiones eléctricas no pueden enviarse como tales (esto es, en banda base) por un canal de tipo analógico no preparado para el envío de señales digitales (canales telegráficos), como puede ser una conexión telefónica, y menos aún por un canal de radio...   Hay que transformar esas tensiones eléctricas en señales analógicas equivalentes que puedan ser enviadas por el canal analógico (telefónico, de radio...), y en el lado receptor, se debe realizar la operación inversa. Lo típico es usar una señal de audio, que se denominar portadora de datos, sobre la cual, por modulación, se van a implementar los unos y ceros lógicos  Esto se consigue con el uso de los MODEMs, palabra que es la abreviatura de MOdulador/DEModulador, y son los aparatos encargados de realizar los siguientes cometidos: - generar una portadora de datos de audio, - modularla adecuadamente con los estados lógicos de los bits que le entregue el equipo digital (ordenador, etc...), - poner esa señal ya modulada en el canal de comunicación analógico. - recibir esa señal procedente del extremo distante, - demodularla para extraer los bits con los niveles eléctricos correspondientes a sus estados lógicos, y entregárselos al equipo terminal de datos, normalmente el ordenador o dispositivo lógico  Por ello los modems se han de conectar entre el ordenador o dispositivo digital similar, y la línea telefónica, o entre el ordenador y el transceptor de radio... Son los ECD (Equipos de circuitos de datos) mas conocidos.  Perturbaciones de la Transmisión.  Será necesario que tengamos en cuenta una serie de factores que van a afectar a nuestra transmisión, de forma que la señal emitida nunca coincidirá exactamente con la recibida. En el caso de señales analógicas el medio introduce ciertas alteraciones aleatorias que degradan la calidad de la señal; en el caso de señales digitales se producen errores de bit ( aparece un 0 en lugar del 1 original, y viceversa).   Las perturbaciones más importantes son:  n      Atenuación y distorsión de atenuación. n      Distorsión de retardo. n      Ruido.   .- Atenuación.  La energía de la señal es inversamente proporcional a la distancia, de manera que disminuye con ésta. En medios guiados la atenuación es logarítmica, por lo que se suele expresar en dB / Km. En medios no guiados su dependencia no es sólo de la distancia, sino también de las condiciones atmosféricas.  La atenuación perjudica la comunicación por tres razones:  *La circuitería electrónica necesita un mínimo de señal para detectarla. *Para que los errores sean mínimos y la calidad de la comunicación sea aceptable. *La atenuación crece directamente con la frecuencia    a la que se transmite.

Los dos primeros problemas se superan con amplificadores y regeneradores. Para resolver el tercero es corriente el uso de ecualizadores que discriminan ciertas frecuencias en la señal Distorsión de retardo.  En medios guiados la velocidad de propagación varía con la frecuencia, esto hace que las distintas componentes espectrales de la señal no viajen todas a la misma velocidad, y que aquellas más cercanas a la frecuencia central vayan más deprisa. Consecuentemente la llegada al receptor no será simultánea, sino que ciertas componentes llegarán con retraso y es lo que llamamos distorsión de retraso (ISI en la transmisión de bits,...). Para resolver este problema recurriremos de nuevo al uso de ecualizadores.      Ruido.  El ruido es la perturbación más importante; se define como el conjunto de señales que se introducen durante la transmisión entre emisor y receptor.   El ruido se clasifica en:  ·        Térmico: Debido a la agitación de los electrones por efecto de la temperatura, es uniforme en el espectro (ruido blanco) y no se puede eliminar.     ·        Intermodulación: Esta  clase de ruido aparece cuando el sistema de transmisión es no lineal, lo que provocará la aparición de nuevas frecuencias. Las nuevas frecuencias se suman o restan con las originales dando lugar a componentes frecuenciales que antes no existían y que distorsionan la verdadera señal.   ·        Diafonía: Se produce al tener señales viajando por medios adyacentes. La señal de una línea se acopla a otra línea cercana distorsionando la señal que viajaba por allí. Esto puede ocurrir por el acoplamiento entre pares de cables cercanos, o cuando antenas de microondas captan señales no deseadas,...  ·        Impulsivo: Hasta ahora los tres tipos de ruido que habíamos visto eran predecibles y se podían modelar. Sin embargo este último tipo no es así, se trata de un rumor continúo formado por picos irregulares de una cierta duración que afectan notablemente a la señal.  TELEGRAFÍA La transmisión de señales tradicional, complementada por el descubrimiento del anteojo, dio origen, en 1794, a uno de los sistemas que cubrieron las necesidades de comunicación durante buena parte del siglo XIX, la telegrafía óptica.

En la segunda mitad del siglo XVIII y gracias a la electricidad estática aparecen diversos prototipos de sistemas electrotelegráficos.  El telégrafo eléctrico de aguja se instala en las líneas férreas y el procedimiento de transportar la información por medio de la electricidad está basado en los del telégrafos óptico.   El gran volumen de tráfico de telegramas exige aumentar la velocidad de transmisión y disponer de más enlaces. Esta es la gran aportación del sistema Morse.  A partir de este momento se comienzan a crear redes nacionales, para más tarde unirlas entre sí y formar una gran red internacional que garantizara la comunicación a escala universal. Aun así, quedaba un obstáculo insalvado, el mar, para lo cual se inventaron los cables submarinos. Después surge el teletipo y el telex que cubrirán las necesidades de transmisión telegráfica durante el siglo XX.  En las postrimerias del siglo XIX tiene lugar la aparición del otro concepto que constituye la Telecomunicación: la radio, conocida entonces como telegrafía sin hilos o radiotelegrafía. TELEFONÍA Alexander Graham Bell inventa el teléfono en 1876. Aparatos de batería local, eran los constituidos por una pila seca y un interruptor para activar un timbre que avisase de la llamada. Los aparatos llamados de magneto, la corriente eléctrica se accionaba mediante una manivela.  Después Las baterías locales son sustituidas por la batería central, la cual alimentaba a todos los aparatos asignados a ella. El sistema automático sustituyó a este tipo de centrales y los aparatos telefónicos se vieron modificados al ser dotados de una rueda giratoria alfanumérica, que ponía en comunicación directamente a los abonados, eliminando la intervención de las operadoras y convirtiendo en privadas las conversaciones.   Las líneas de teléfono fueron creadas para transportar voz,  Hoy es el medio que utiliza la mayoría de los mas de 50 millones de usuarios para conectarse a Internet,  aunque no fueron creadas para transportar vídeos, gráficas, textos y todos los demás elementos que viajan de un lado a otro en la Red.  Pero las líneas telefónicas no son la única vía hacia el ciberespacio. Recientemente otro medio para conectarse a Internet es a través de la fibra óptica. Hoy en día la Telefonía celular a tomado un gran auge, al igual que el uso del Internet por este medio.  CABLEADO ESTRUCTURADO Es el sistema de cableado independiente del  fabricante y la aplicación (telefonía, datos y video). Sus ventajas: •         Ofrecer una solución abierta. Utilizar productos de diferentes fabricantes dentro del sistema de cableado y cualquier aplicación puede correr sobre el.•         Tener gran flexibilidad cuando se actualice el sistema o se hagan movimientos, adiciones o cambios.•         Capacidad para ejecutar distintas aplicaciones sobre la misma planta de medios/cableado. CABLE COAXIAL Consiste en un conductor central de cobre cubierto de un dieléctrico, una malla de alambre y por último, el forro aislante. Es muy utilizado en las redes de bus.    Normalmente se utilizan 2 tipos de cable  coaxial: •         De 50 Ohm para redes con señalización baseband.•         De 75 Ohm para redes con señalización broadband.  Este tipo de cable tiene una gran resistencia a interferencias externas.  Soporta la transmisión de hasta 100 mbs/seg y alcanza distancias de hasta 230 mts. Una desventaja de este medio es que genera radiación. PAR TRENZADO Normalmente se utilizan 2 tipos de cable  coaxial: •         De 50 Ohm para redes con señalización baseband.•         De 75 Ohm para redes con señalización broadband.  Este tipo de cable tiene una gran resistencia a interferencias externas.  Soporta la transmisión de hasta 100 mbs/seg y alcanza distancias de hasta 230 mts. Una desventaja de este medio es que genera radiación.Durante los comienzos de la telefonía, la calidad de señal era bastante pobre; por ello en 1883 se añadió un segundo hilo como hilo de retorno no basada en tierra. Así se mejoró la calidad de la señal. Pero las señales de ambos hilos se interferían mutuamente. Entonces dos cables de cobre telefónicos se trenzaron en forma helicoidal (para evitar problemas electromagnéticos) permitiendo tasas de transferencia punto a punto de varios Mbps, dependiendo del largo y del grosor. Así, puede variar también su ancho de banda.  TIPOS DE PAR TRENZADO  UTP (Unshielded Twisted Pair)Par trenzado sin apantallar. STP (Shielded Twisted Pair)Par trenzado apantallado.  UTP  El cable UTP es utilizado en topologias de red de tipo árbol. Es susceptible al ruido generado por inducción, alcanza distancias de hasta 100 metros y una desventaja es que genera radiación. La mayoría de cables de pares son líneas de transmisión equilibradas. La referencia entre los dos hilos tiene en cuenta las diferencias relativas de potencial de cada uno de ellos, por lo que puede decirse que este circuito está equilibrado con respecto a masa, así se logran transmitir señales más potentes que el cable coaxial; eso sí, el cable de pares debe permanecer alejado de otro conductores, y es necesario instalar aisladores separadores cuando se cruzan varios sistemas de cables.    CATEGORIAS DE UTP                      

STP Para reducir el porcentaje de error por causa de ruido se emplea STP, el cual proporciona cierta inmunidad y permite extender la longitud del cable al instalar. Cuando transmitimos datos sobre par trenzado apantallado (un medio de dos pares STP como cable IBM Tipo 1),  se transmiten los datos en dos cadenas paralelas.     FIBRA OPTICALa fibra es un medio de transmisión de información analógica o digital. Las ondas electromagnéticas viajan en el espacio a la velocidad de la luz.  Básicamente, la fibra óptica está compuesta por una región cilíndrica, por la cual se efectúa la propagación, denominada núcleo y de una zona externa al núcleo y coaxial con él, totalmente necesaria para que se produzca el mecanismo de propagación, y que se denomina envoltura o revestimiento.   COMPOSICIÓN DE LA FIBRA OPTICA  VENTAJAS DE LA F.O. •         La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps. •         Acceso ilimitado y continuo las 24 horas del día, sin congestiones. •         Video y sonido en tiempo real. •         Es inmune al ruido y las interferencias. •         Las fibras no pierden luz, por lo que la transmisión es también segura y no puede ser perturbada. •         Carencia de señales eléctricas en la fibra. •         Presenta dimensiones más reducidas que los medios preexistentes. •         El peso del cable de fibras ópticas es muy inferior al de los cables metálicos. •         La materia prima para fabricarla es abundante en la naturaleza. •         Compatibilidad con la tecnología digital.  DESVENTAJAS DE LA F.O. ·        Sólo pueden suscribirse las personas que viven en las zonas de la ciudad por las cuales ya esté instalada la red de fibra óptica. ·        El coste es alto en la conexión de fibra óptica, las empresas no cobran por tiempo de utilización sino por cantidad de información transferida al computador, que se mide en megabytes. ·        El coste de instalacion es elevado. ·        Fragilidad de las fibras. ·        Disponibilidad limitada de conectores. ·        Dificultad de reparar un cable de fibras roto en el campo. CODIFICACIÓN DE DATOS MODULACIÓN•         Es el proceso de codificar una fuente de datos en una señal    portadora de frecuencia fc.•         Todas las técnicas de modulación involucran operaciones en uno o más de los tres parámetros fundamentales del dominio de la frecuencia:•         Amplitud:   *Frecuencia   *Fase•         La señal de entrada m(t) puede ser analógica o digital y es la señal moduladora o en banda base.•         El resultado de modular una portadora es la señal modulada s(t).        TECNICAS DE CODIFICACION Y MODULACION 
g(t) 
Digital ó analógicoCodificadorx(t)digitalDecodifi-cadorg(t)m(t)  Digital ó analógicoModuladors(t) analógica Demoduladorm(t)fcX(t)  DATOS DIGITALES, SEÑALES DIGITALES •         Señal Unipolar: Cuando los elementos de la señal tienen el mismo signo, todos positivos o negativos.•         Señal Polar: Un estado lógico es representado por  nivel positivo y el otro por uno negativo .•         Razón de datos de una señal: Es la velocidad de transmisión de los datos en bits por segundo.•         Duración ó longitud de un bit: Es el tiempo empleado por un transmisor para emitir un bit; para una razón de datos R, la duración de 1 bit es 1/R.•         Razón de Modulación: Es la velocidad a la que se cambia el nivel de una señal. Se expresa en baudios, equivalente a un bit por segundo.•         Marca y Espacio: Dígitos 1 y 0 respectivamente. FACTORES PARA INTERPRETAR UNA SEÑAL DE ENTRADA •         La relación señal-ruido(Eb/No), razón de datos(ó velocidad de transmisión) y ancho de banda.•         Un incremento de la transmisión de datos aumenta la transmisión de error por bit.•         Un incremento en la relación S/N disminuye la transmisión de error por bit.•         Un aumento de ancho de banda permite un aumento en transmisión de datos.•         Esquema de codificación: Correspondencia entre los bits de los datos y los elementos de la señal.  DEFINICIÓN DE FORMATOS DE CODIFICACIÓN DE SEÑALES DIGITALES •         No Retomo a Cero (NonReturn to Zero-Level)    *0=Nivel alto   *1=Nivel bajo•         No Retorno a Cero Invertido(NonReturn to Zero Inverted)   *0=No transición al inicio del intervalo (un bit cada vez)   *1=Transición al inicio del intervalo•         Bipolar AMI (Alternate Mark Inversion)   *0=No hay señal en línea   *1=Nivel positivo o negativo, alternante  •         Pseudoternaria   *0=Nivel positivo o negativo, alternante      *1=No hay señal•         Manchester    *0=Transición de alto a bajo a la mitad del intervalo   *1=Transición de bajo a alto  a la mitad del intervalo•         Manchester diferencial   *Siempre hay transición a la mitad del intervalo   *1=No hay transición al inicio del intervalo   *0=Transición al inicio del intervalo •         B8ZS: Equivalente al Bipolar-AMI, excepto que cualquier cadena de 8 ceros se reemplaza por una cadena que tiene 2 violaciones de código. •         HDB3: Equivalente al Bipolar-AMI, excepto que cualquier cadena de 4 ceros se reemplaza por una cadena que contiene una violación de código.  FORMATOS DE CODIFICACIÓN CON SEÑAL DIGITAL 
NRZ - L
NRZIBipolar - AMIPseudoternarioManchesterManchester diferencial     0      1       0       0     1       1      0      0      0      1     1 NONRETURN TO ZERO LEVEL(NRZ-L) El nivel de tensión se mantiene constante durante la duración de un bit, es decir, no hay transiciones (no hay retorno al nivel cero de tensión).

La ausencia de tensión, se usa para representar a un 0 binario, mientras que un nivel de tensión constante y positivo, al 1 binario. Aunque en la figura, una tensión negativa representa un 1 binario y una positiva un 0.

Se usa generalmente para generar ó interpretar los datos binarios en los terminales y otros dispositivos. NONRETURN TO ZERO, INVERTED ON ONES (NRZI) Una variante del NRZ.Al igual que NRZ-L, mantiene constante el nivel de tensión mientras dura un bit.Los datos se codifican mediante la presencia ó ausencia de la señal al principio del intervalo de la duración del bit. Un 1 se codifica mediante la transición (bajo a alto ó alto a bajo) al principio del intervalo del bit, mientras que un 0 se representa por la ausencia de la transición. •         Este es un ejemplo de codificación diferencial; donde, en lugar de determinar el valor absoluto, la señal se decodifica comparando la polaridad de los elementos de señal adyacentes. •         Las principales limitaciones son la presencia de una componente de dc y la falta de capacidad de la sincronización.•         Se usa principalmente para grabaciones magnéticas digitales.  NONRETURN TO ZERO (NRZ) NRZI es un ejemplo de codificación diferencial. La señal decodificada se compara con la polaridad del elemento adyacente en lugar de determinar el valor absoluto del elemento. * Las principales limitaciones son la presencia de una componente de dc y la falta de capacidad de la sincronización.* Se usa principalmente para grabaciones magnéticas digitales. BINARIO MULTILEVEL •         En el caso del Bipolar-AMI, un 0 binario se representa por ausencia de señal y el 1 binario por pulso (-) ó (+).No hay pérdida de sincronización cuando hay una cadena larga de unos. Al haber una transición, el receptor se puede re-sincronizar. Como los unos se alternan en voltaje de positivo o negativo , no hay una componente de dc. El ancho de banda es menor a NRZ. La alternación de pulsos proporciona una forma sencilla de detección de errores. •         Estos comentarios son válidos para los códigos Pseudoternarios.  •         No es tan eficiente como NRZ. •         El receptor de señales codificadas debe de distinguir  tres niveles (+A, -A, 0), en lugar de los niveles de los anteriores esquemas.  •         La tasa de errores por bit para los códigos NRZ, a una relación señal-ruido dada, es menor que la necesaria en binario multinivel.     BIFASE •         Código Manchester :Siempre hay una transición en mitad del intervalo de duración del bit. Una transición de bajo a alto representa un 1, y una transición de alto a bajo un 0.  Se usa en la normalización IEEE 802.3. •         Código Manchester Diferencial: La transición en mitad del intervalo se usa tan solo para proporcionar sincronización. Un 1 es representado por la ausencia de la transición; en cambio un 0, es representado por la presencia de una transición al inicio del intervalo.   Se usa en la normalización IEEE 802.5. •         La máxima velocidad de modulación es el doble que en los NRZ, esto significa que  ancho de banda necesario es mayor.»       Ventajas de los esquemas Bifase:  1.-) Tiene una buena sincronización ya que el receptor se puede sincronizar en cada transición.2.-) No tiene componentes de dc.3.-)La ausencia de una transición esperada para usarse para detectar erroresVELOCIDAD DE MODULACION •         Es aquella con la que se generan los elementos de la señal.•         Usando técnicas de codificación de datos, se debe diferenciar entre la velocidad de transmisión de datos (en bits por segundo) y la velocidad de modulación (en baudios).•         La velocidad ó razón de datos es 1/tB, donde tB=duración de un bit.•         En general:  =======>>>       D=     R     =   R                                                                      B         log2Ldonde                       D= velocidad de modulación en baudiosR=velocidad de transmisión ó razón de datos en bpsL=número de elementos de señal diferentesb=número de bits por elemento de señal   

Tipos de Conexiones Existen dos maneras principales de conectar computadoras: Punto a Punto: Necesita un reloj común Necesita un protocolo de comunicación. Multipunto: Requiere un proceso llamado SONDEO (Polling). Sondeo por llamado a Lista: Figura 12. Sondeo por secuencia: CPU manda un mensaje de atención a la 1a. terminal. Si no recibe respuesta, pasa a la segunda, y así sucesivamente: Figura 13.

Figura 11. Conexión Multipunto.





Figura 12. Sondeo por llamado a Lista.


MANUAL TELEPROCESO 11/02/2008 a las 19:31

Deja tu comentario DISEÑO Y EVALUACION DE PROYECTO

Identifícate en OboLog, o crea tu blog gratis si aún no estás registrado.

Avatar de usuario Tu nombre