|
HISTORIA DE LA RADIO
A nivel mundial, las primeras emisiones públicas de radio tuvieron lugar en el año de 1912, a raíz de la proliferación de señales de radio provenientes del transporte marítimo y de las estaciones terrestres de comunicación, especialmente. Muchos historiadores dicen que la radio pública se originó como consecuencia de las enormes dificultades de comunicación evidenciadas durante el hundimiento del Titanic, el 12 de abril de 1912, ya que éste trató de comunicarse durante tres días sin lograr una respuesta eficaz de las embarcaciones o puertos cercanos; una vez ocurrida la tragedia, comenzó la discusión en cada país en torno a la necesidad de reglamentar las emisiones radiofónicas, todo ello con el fin de lograr un sistema de comunicaciones más eficiente.
Es hasta 1920 cuando le son asignadas frecuencias exclusivas a las estaciones de radio dentro de Estados Unidos. Durante la década siguiente se organizaron cientos de emisoras privadas mientras el Estado norteamericano apoyaba e incentivaba la aparición de las primeras cadenas radiales de comunicación en toda la extensión de su territorio. El gobierno norteamericano, ya en los primeros años de la radio, fue consciente del poder masivo que éste medio de comunicación tendría en la década siguiente.
La radio comercial, en términos cercanos a lo que hoy conocemos, nace en 1922. Su fin, inicialmente, era el de emitir "cuñas" publicitarias, a manera de apoyo al creciente mercado de productos en Europa y Estados Unidos. Sin embargo, un año más tarde se comenzó a experimentar con el formato radial y se produjeron los primeros programas de narraciones e historias. Este formato tuvo una gran recepción por parte de la audiencia, que inmediatamente se comunicó con la cadena radial para sugerir su continuidad. Se había demostrado que el sonido resultaba un material innovador y sorprendente para la recreación de escenarios, por lo que el proceso experimental siguió su curso hasta 1932, cuando aparecen los primeros programadores de música, los disc-jockeys, y, con ellos, los estribillos (los famosos jingles) para los comerciales cantados.
La radio en América Latina y Colombia
Desde la década de 1920, la radio comenzó un rápido proceso de expansión alrededor del mundo. Los equipos necesarios para su producción eran un producto costoso y de difícil transporte, aunque varios radioaficionados habían conseguido realizar emisiones, tanto dentro de Estados Unidos como en Europa, con equipos rudimentarios. Para la década de 1930, Argentina y México ya contaban con grupos de radioaficionados que emitían series de noticias y canciones en Buenos Aires y Ciudad de México. En estos países, la radio consiguió el apoyo de los gobiernos, interesados en incentivar la instalación de estaciones de radio para conseguir una comunicación directa con los habitantes.
Cuando apareció la televisión, en 1948, se pensó que la radio iba a acabarse, sin embargo esto no sucedió; por el contrario, gracias a su capacidad para esquivar obstáculos como el analfabetismo o la distancia, el formato radial se fortaleció y consiguió instalarse como el acompañante de las labores cotidianas de cientos de habitantes de las ciudades y el campo. La radio reunía a la sociedad alrededor de una sola noticia o la transmisión en directo de algún suceso extraordinario.
En Colombia, fue el presidente Miguel Abadía Méndez quien inauguró, en 1929, la primera radiodifusora, llamada HJN. Unos meses más tarde nace, con el nombre de La Voz de Barranquilla, la primera emisora en esta ciudad de la Costa Caribe colombiana. Desde el año de 1923, la empresa inglesa Marconi Wireless Co. se encargó de traer al país la infraestructura necesaria para mejorar las comunicaciones, pero se enfrentó con varios obstáculos en el terreno económico y legal. Sin embargo, la empresa fue, durante veinte años, la única en el país que llevó a cabo esta tarea.
La primera emisora comercial en el país nace en 1931 (su nombre era HKF). A partir de ese momento nacieron muchas emisoras comerciales, a la vez que se implantó la reglamentación que habría de controlarlas. Al principio, estas emisoras eran dirigidas por una sola persona, quien se encargaba de operarlas y, en general, de llevar a cabo todas las tareas que exigía cada una de ellas. De esta manera, las emisoras sólo podían funcionar de manera intermitente, dependiendo de la disponibilidad de tiempo y recursos de sus dueños.
La radio y la prensa
Lo anterior dio lugar a una lucha entre la radio y la prensa, hasta el punto de que ésta última logró que, en 1934, se emitiese un decreto que prohibía a las emisoras radiales leer las noticias publicadas por los periódicos, lo cual sólo podía hacerse doce horas después de que éstos hubiesen sido publicados. No obstante, el auge de la radio, debido a su capacidad de inmediatez y a su agilidad, era evidente, haciendo que a los medios escritos no les quedase otra opción que la de negociar al ver el gran interés que el gobierno tenía en este nuevo medio. Este crecimiento se dio sobre todo entre 1935 y 1940, años en los que se importaron modelos radiales de Estados Unidos y en los que la inversión por parte de la empresa privada y del sector público en los medios radiofónicos era cada vez mayor.
Ante estas nuevas condiciones, los dueños de las emisoras, quienes hasta entonces lo hacían todo solos, buscaron organizar sus estaciones de una manera empresarial para darle más calidad a los programas. Además, se comenzaron a transmitir diferentes encuentros deportivos en vivo, más horas de programación con obras humorísticas, y los llamados programas especiales, que se hacían para cubrir los acontecimientos más importantes o para celebrar algún acontecimiento histórico. En Colombia, para el gobierno de Alfonso López Pumarejo, la radio tenía una misión educativa, pues tenía todas las posibilidades para transmitir información útil para todos los ámbitos de la vida cotidiana, así como para educar a la gente en historia del país, entre otros temas.
En 1935, debido a la caída del avión de Scadta en la que murió el cantante Carlos Gardel. se inauguró el género del radio periodismo, pues todas las emisoras mandaron reporteros al lugar de los hechos para que, telefónicamente, se contactaran con las estaciones y narraran lo que estaba sucediendo.
Sin embargo, en 1936, como consecuencia de la violencia bipartidista que se vivía en todo el país, el gobierno prohíbe a las emisoras narrar noticias políticas, sancionándose a todas aquellas que incumpliesen la ley. Entre 1937 y 1942 tiene lugar el proceso de establecimiento de la Radiodifusora Nacional de Colombia, ente oficial encargado de divulgar los proyectos culturales del gobierno y, al mismo tiempo, permitir la comunicación entre las zonas más alejadas del centro y la capital, Bogotá.
Tres años más tarde, en los albores de la Segunda Guerra Mundial, comenzaron a llegar, a través de las señales de onda corta, mensajes provenientes de Alemania y de otros países que hablaban sobre la inminente guerra, lo que hizo que Latinoamérica entendiese el gran poder que tenía la radio a nivel mundial, aun a pesar de no haber participado directamente en la contienda. Dicho poder se evidenció en Colombia cuando, en 1948, es asesinado el líder político Jorge Eliécer Gaitán, lo cual desató un caos sin precedentes en la historia del país, lo que hizo que las emisoras buscaran entretener y orientar a las personas frente a la guerra, de tal manera que terminaron por agilizar y profesionalizar su estructura radial.
En 1945 aparecen las primeras emisoras culturales (HJCK) y, por la misma época, las cadenas radiales RCN, Caracol y Todelar, las cuales, hasta el día de hoy, siguen luchando entre ellas por conseguir la mayor audiencia posible, además de seguir siendo las más importantes. Así también, a comienzos de los años 50 aparece Radio Sutatenza, un proyecto de la ACPO (Acción Cultural Popular), liderado por el sacerdote católico Monseñor José Joaquín Salcedo Ramos. Radio Sutatenza fue una emisora dirigida al público campesino de todo el país. Desde su nacimiento en el pueblo boyacense de Sutantenza, la emisora funcionó al lado de varios proyectos de corte educativo y social como las Escuelas Radiofónicas (programas de educación radial para mejorar la vida del campesinado), varias cartillas pedagógicas de distribución gratuita y el periódico El Campesino.
En 1980, muchos géneros radiales, como las radionovelas y los programas de humor, comenzaron a desaparecer, pues se creía que eran géneros más aptos para la televisión. En la actualidad, con el auge de los nuevos medios, la radio sigue trabajando para mejorar su calidad. Las emisoras y cadenas transmiten música, charlas radiofónicas, programas culturales, noticias y deportes. La radio sigue siendo uno de los medios masivos más importantes, pero, sobre todo, el más ágil e inmediato para conocer lo que está sucediendo. Es un medio que llega a donde otros no.
Historia de la television. Origenes y evolucion
La televisión es un sistema para la transmisión y recepción de imágenes en movimiento y sonido a distancia. Esta transmisión puede ser efectuada mediante ondas de radio o por redes especializadas de televisión por cable. El receptor de las señales es el televisor.
La palabra "televisión" es un híbrido de la voz griega "tele" (distancia) y la latina "visio" (visión). El término televisión se refiere a todos los aspectos de transmisión y programación de televisión. A veces se abrevia como TV. Este término fue utilizado por primera vez en 1900 por Constantin Perski en el Congreso Internacional de Electricidad de París (CIEP). El Día Mundial de la Televisión se celebra el 21 de noviembre en conmemoración de la fecha en que se celebró en 1996 el primer Foro Mundial de Televisión en las Naciones Unidas
Historia
El concepto de televisión (visión a distancia) se puede rastrear hasta Galileo Galilei y su telescopio. Sin embargo, no es hasta 1884, con la invención del Disco de Nipkow de Paul Nipkow cuando se hiciera un avance relevante para crear un medio. El cambio que traería la televisión tal y como hoy la conocemos fue la invención del iconoscopio de Vladimir Zworkyn y Philo Taylor Farnsworth. Esto daría paso a la televisión completamente electrónica, que disponía de una tasa de refresco mucho mejor, mayor definición de imagen e iluminación propia.
Primeros desarrollos
En 1910, el disco de Nipkow fue utilizado en el desarrollo de los sistemas de televisión de los inicios del siglo XX , en 1925 el inventor escocés John Logie Baird efectúa la primera experiencia real utilizando dos discos, uno en el emisor y otro en el receptor, que estaban unidos al mismo eje para que su giro fuera síncrono y separados por 2 mm. Las primeras emisiones públicas de televisión las efectuó la BBC en Inglaterra en 1927 y la CBS y NBC en Estados Unidos en 1930. En ambos casos se utilizaron sistemas mecánicos y los programas no se emitían con un horario regular. Las emisiones con programación se iniciaron en Inglaterra en 1936, y en Estados Unidos el día 30 de abril de 1939, coincidiendo con la inauguración de la Exposición Universal de Nueva York. Las emisiones programadas se interrumpieron durante la Segunda Guerra Mundial, reanudándose cuando terminó.
Televisión electrónica
En 1937 comenzaron las transmisiones regulares de TV electrónica en Francia y en el Reino Unido. Esto llevó a un rápido desarrollo de la industria televisiva y a un rápido aumento de telespectadores, aunque los televisores eran de pantalla pequeña y muy caros. Estas emisiones fueron posibles por el desarrollo de los siguientes elementos en cada extremo de la cadena: el tubo de rayos catódicos y el iconoscopio.
La señal de vídeo
La señal transducida de la imagen contiene la información de ésta, pero es necesario, para su recomposición, que haya un perfecto sincronismo entre la deflexión de exploración y la deflexión en la representación. La exploración de una imagen se realiza mediante su descomposición, primero en fotogramas a los que se llaman cuadros y luego en líneas, leyendo cada cuadro. Para determinar el número de cuadros necesarios para que se pueda recomponer una imagen en movimiento así como el número de líneas para obtener una óptima calidad en la reproducción y la óptima percepción del color (en la TV en color) se realizaron numerosos estudios empíricos y científicos del ojo humano y su forma de percibir. Se obtuvo que el número de cuadros debía de ser al menos de 24 al segundo (luego se emplearon por otras razones 25 y 30) y que el número de líneas debía de ser superior a las 300. La señal de vídeo la componen la propia información de la imagen correspondiente a cada línea (en el sistema PAL 625 líneas y en el NTSC 525 por cada cuadro) agrupadas en dos grupos, las líneas impares y las pares de cada cuadro, a cada uno de estos grupos de líneas se les denomina campo (en el sistema PAL se usan 25 cuadros por segundo mientras que en el sistema NTSC 30). A esta información hay que añadir la de sincronismo, tanto de cuadro como de línea, esto es, tanto vertical como horizontal. Al estar el cuadro dividido en dos campos tenemos por cada cuadro un sincronismo vertical que nos señala el comienzo y el tipo de campo, es decir, cuando empieza el campo impar y cuando empieza el campo par. Al comienzo de cada línea se añade el pulso de sincronismo de línea u horizontal (modernamente con la TV en color también se añade información sobre la sincronía del color).
El desarrollo de la TV
Es a mediados del siglo XX donde la televisión se convierte en bandera tecnológica de los países y cada uno de ellos va desarrollando sus sistemas de TV nacionales y privados. En 1953 se crea Eurovisión que asocia a varios países de Europa conectando sus sistemas de TV mediante enlaces de microondas. Unos años más tarde, en 1960, se crea Mundovisión que comienza a realizar enlaces con satélites geoestacionarios cubriendo todo el mundo. La producción de televisión se desarrolló con los avances técnicos que permitieron la grabación de las señales de vídeo y audio. Esto permitió la realización de programas grabados que podrían ser almacenados y emitidos posteriormente. A finales de los años 50 del siglo XX se desarrollaron los primeros magnetoscopios y las cámaras con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción. En los años 70 se implementaron las ópticas Zoom y se empezaron a desarrollar magnetoscopios más pequeños que permitían la grabación de las noticias en el campo. Nacieron los equipos periodismo electrónico o ENG. Poco después se comenzó a desarrollar equipos basados en la digitalización de la señal de vídeo y en la generación digital de señales, nacieron de esos desarrollos los efectos digitales y las paletas gráficas. A la vez que el control de las máquinas permitía el montaje de salas de postproducción que, combinando varios elementos, podían realizar programas complejos. El desarrollo de la televisión no se paró con la transmisión de la imagen y el sonido. Pronto se vio la ventaja de utilizar el canal para dar otros servicios. En esta filosofía se implementó, a finales de los años 80 del siglo XX el teletexto que transmite noticias e información en formato de texto utilizando los espacios libres de información de la señal de vídeo. También se implementaron sistemas de sonido mejorado, naciendo la televisión en estéreo o dual y dotando al sonido de una calidad excepcional, el sistema que logró imponerse en el mercado fue el NICAM.
La televisión en color
Ya en 1928 se desarrollaron experimentos de la transmisión de imágenes en color. En 1940, el mexicano Guillermo González Camarena patenta, en México y EE.UU., un Sistema Tricromático Secuencial de Campos. En 1948, Goldmark, basándose en la idea de Baird y Camarena, desarrolló un sistema similar llamado sistema secuencial de campos. El éxito fue tal que la Columbia Broadcasting System lo adquirió para sus transmisiones de TV. El siguiente paso fue la transmisión simultánea de las imágenes de cada color con el denominado trinoscopio. El trinoscopio ocupaba tres veces más espectro radioeléctrico que las emisiones monocromáticas y, encima, era incompatible con ellas a la vez que muy costoso. El elevado número de televisores en blanco y negro exigió que el sistema de color que se desarrollara fuera compatible con las emisiones monocromas. Esta compatibilidad debía realizarse en ambos sentidos, de emisiones en color a recepciones en blanco y negro y de emisiones en monocromo a recepciones en color. En búsqueda de la compatibilidad nace el concepto de luminancia y de crominancia. La luminancia porta la información del brillo, la luz, de la imagen, lo que corresponde al blanco y negro, mientras que la crominancia porta la información del color. Estos conceptos fueron expuestos por Valensi en 1937. En 1950 la Radio Corporation of America, (RCA) desarrolla un tubo de imagen que portaba tres cañones electrónicos, los tres haces eran capaces de impactar en pequeños puntos de fósforo de colores, llamados luminóforos, mediante la utilización de una máscara, la Shadow Mask o Trimask. Esto permitía prescindir de los tubos trinoscópicos tan abultados y engorrosos. Los electrones de los haces al impactar con los luminóforos emiten una luz del color primario correspondiente que mediante la mezcla aditiva genera el color original. Mientras en el receptor se implementaban los tres cañones correspondientes a los tres colores primarios en un solo elemento; en el emisor (la cámara) se mantenían los tubos separados, uno por cada color primario. Para la separación se hace pasar la luz que conforma la imagen por un prisma dicroico que filtra cada color primario a su correspondiente captador
Barras de color EBU vistas en un MFO y un vectoscopio.
La alta definición "HD"
El sistema de televisión de definición estándar, conocido por la siglas "SD", tiene, en PAL, una definición de 720x576 pixeles (720 puntos horizontales en cada línea y 576 puntos verticales que corresponden a las líneas activas del PAL) esto hace que una imagen en PAL tenga un total de 414.720 pixeles. En NSTC se mantienen los puntos por línea pero el número de líneas activas es solo de 525 lo que da un total de pixeles de 388.800 siendo los pixeles levemente anchos en PAL y levemente altos en NSTC. Se han desarrollado 28 sistemas diferentes de televisión de alta definición. Hay diferencias en cuanto a relación de cuadros, número de líneas y pixeles y forma de barrido. Todos ellos se pueden agrupar en cuatro grandes grupos de los cuales dos ya han quedado obsoletos (los referentes a las normas de la SMPTE 295M, 240M y 260M) manteniéndose otros dos que difieren, fundamentalmente, en el número de líneas activas, uno de 1080 líneas activas (SMPT 274M) y el otro de 720 líneas activas (SMPT 269M). En el primero de los grupos, con 1.080 líneas activas, se dan diferencias de frecuencia de cuadro y de muestras por línea (aunque el número de muestras por tiempo activo de línea se mantiene en 1.920) también la forma de barrido cambia, hay barrido progresivo o entrelazado. De la misma forma ocurre en el segundo grupo, donde las líneas activas son 720 teniendo 1.280 muestras por tiempo de línea activo. En este caso la forma de barrido es siempre progresiva. En el sistema de HD de 1.080 líneas y 1.920 muestras por línea tenemos 2.073.600 pixeles en la imagen y en el sistema de HD de 720 líneas y 1.280 muestras por líneas tenemos 921.600 pixeles en la pantalla. En relación con los sistemas convencionales tenemos que la resolución del sistema de 1.080 líneas es 5 veces mayor que el del PAL y cinco veces y media que el del NTSC. Con el sistema de HD de 720 líneas es un 50% mayor que en PAL y un 66% mayor que en NTSC. La alta resolución requiere también una redefinición del espacio de color cambiando el triángulo de gamut.
La relación de aspecto
En la década de los 90 del siglo XX se empezaron a desarrollar los sistemas de televisión de alta definición. Todos estos sistemas, en principio analógicos, aumentaban el número de líneas de la imagen y cambiaban la relación de aspecto pasando del formato utilizado hasta entonces, relación de aspecto 4/3, a un formato más apaisado de 16/9. Este nuevo formato, más agradable a la vista se estableció como estándar incluso en emisiones de definición estándar. La relación de aspecto se expresa por la anchura de la pantalla en relación a la altura. El formato estándar hasta ese momento tenía una relación de aspecto de 4/3. El adoptado es de 16/9. La compatibilidad entre ambas relaciones de aspecto se puede realizar de diferentes formas. Una imagen de 4/3 que se vaya a ver en una pantalla de 16/9 puede presentarse de tres formas diferentes:
•Con barras negras verticales a cada lado (pillarbox). Manteniendo la relación de 4/3 pero perdiendo parte de la zona activa de la pantalla. •Agrandando la imagen hasta que ocupe toda la pantalla horizontalmente. Se pierde parte de la imagen por la parte superior e inferior de la misma. •Deformando la imagen para adaptarla al formato de la pantalla. Se usa toda la pantalla y se ve toda la imagen, pero con la geometría alterada (los círculos se ven elipses con el diámetro mayor orientado de derecha a izquierda). Una imagen de 16/9 que se vaya a ver en una pantalla de 4/3, de forma similar, tiene tres formas de verse:
•Con barras horizontales arriba y abajo de la imagen (letterbox). Se ve toda la imagen pero se pierde tamaño de pantalla (hay varios formatos de letterbox dependiendo de la parte visible de la imagen que se vea (cuanto más grande se haga más se recorta), se usan el 13/9 y el 14/9). •Agrandando la imagen hasta ocupar toda la pantalla verticalmente, perdiéndose las partes laterales de la imagen. •Deformando la imagen para adaptarla a la relación de aspecto de la pantalla. Se ve toda la imagen en toda la pantalla, pero con la geometría alterada (los círculos se ven elipses con el diámetro mayor orientado de arriba a abajo).
La digitalización
Televisión Digital Terrestre en el mundo.
A finales de los años 80 del siglo XX se empezaron a desarrollar sistemas de digitalización. La digitalización en la televisión tiene dos partes bien diferenciadas. Por un lado está la digitalización de la producción y por el otro la de la transmisión. En cuanto a la producción se desarrollaron varios sistemas de digitalización. Los primeros de ellos estaban basados en la digitalización de la señal compuesta de vídeo que no tuvieron éxito. El planteamiento de digitalizar las componentes de la señal de vídeo, es decir la luminancia y las diferencias de color, fue el que resultó más idóneo. En un principio se desarrollaron los sistemas de señales en paralelo, con gruesos cables que precisaban de un hilo para cada bit, pronto se sustituyó ese cable por la transmisión multiplexada en tiempo de las palabras correspondientes a cada una de las componentes de la señal, además este sistema permitió incluir el audio, embebiéndolo en la información transmitida, y otra serie de utilidades. Para el mantenimiento de la calidad necesaria para la producción de TV se desarrolló la norma de Calidad Estudio CCIR-601. Mientras que se permitió el desarrollo de otras normas menos exigentes para el campo de las producciones ligeras (EFP) y el periodismo electrónico (ENG). La diferencia entre ambos campos, el de la producción en calidad de estudio y la de en calidad de ENG estriba en la magnitud el flujo binario generado en la digitalización de las señales. La reducción del flujo binario de la señal de vídeo digital dio lugar a una serie de algoritmos, basados todos ellos en la transformada discreta del coseno tanto en el dominio espacial como en el temporal, que permitieron reducir dicho flujo posibilitando la construcción de equipos más accesibles. Esto permitió el acceso a los mismos a pequeñas empresas de producción y emisión de TV dando lugar al auge de las televisiones locales. En cuanto a la transmisión, la digitalización de la misma fue posible gracias a las técnicas de compresión que lograron reducir el flujo a menos de 5 Mbit/s, hay que recordar que el flujo original de una señal de calidad de estudio tiene 270 Mbit/s. Esta compresión es la llamada MPEG-2 que produce flujos de entre 4 y 6 Mbit/s sin pérdidas apreciables de calidad subjetiva. Las transmisiones de TV digital tienen tres grandes áreas dependiendo de la forma de la misma aun cuando son similares en cuanto a tecnología. La transmisión se realiza por satélite, cable y vía radiofrecuencia terrestre, ésta es la conocida como TDT. El avance de la informática, tanto a nivel del hardware como del software, llevaron a sistemas de producción basados en el tratamiento informático de la señal de televisión. Los sistemas de almacenamiento, como los magnetoscopios, pasaron a ser sustituidos por servidores informáticos de vídeo y los archivos pasaron a guardar sus informaciones en discos duros y cintas de datos. Los ficheros de vídeo incluyen los metadatos que son información referente a su contenido. El acceso a la información se realiza desde los propios ordenadores donde corren programas de edición de vídeo de tal forma que la información residente en el archivo es accesible en tiempo real por el usuario. En realidad los archivos se estructuran en tres niveles, el on line, para aquella información de uso muy frecuente que reside en servidores de discos duros, el near line, información de uso frecuente que reside en cintas de datos y éstas están en grandes librerías automatizadas, y el archivo profundo donde se encuentra la información que está fuera de línea y precisa de su incorporación manual al sistema. Todo ello está controlado por una base de datos en donde figuran los asientos de la información residente en el sistema. La incorporación de información al sistema se realiza mediante la denominada función de ingesta. Las fuentes pueden ser generadas ya en formatos informáticos o son convertidas mediante conversores de vídeo a ficheros informáticos. Las captaciones realizadas en el campo por equipos de ENG o EFP se graban en formatos compatibles con el del almacenamiento utilizando soportes diferentes a la cinta magnética, las tecnologías existentes son DVD de rayo azul (de Sony), grabación en memorias ram (de Panasonic) y grabación en disco duro (de Ikegami). La existencia de los servidores de vídeo posibilita la automatización de las emisiones y de los programas de informativos mediante la realización de listas de emisión, los llamados play out.
Difusión analógica
Véase también: Frecuencias de los canales de televisión La televisión hasta tiempos recientes, principios del siglo XXI, fue analógica totalmente y su modo de llegar a los televidentes era mediante el aire con ondas de radio en las bandas de VHF y UHF. Pronto salieron las redes de cable que distribuían canales por las ciudades. Esta distribución también se realizaba con señal analógica, las redes de cable pueden tener una banda asignada, más que nada para poder realizar la sintonía de los canales que llegan por el aire junto con los que llegan por cable. Su desarrollo depende de la legislación de cada país, mientras que en algunos de ellos se desarrollaron rápidamente, como en Inglaterra y Estados Unidos, en otros como España no han tenido casi importancia hasta que a finales del siglo XX la legislación permitió su instalación. El satélite, que permite la llegada de la señal a zonas muy remotas y de difícil acceso, su desarrollo, a partir de la tecnología de los lanzamientos espaciales, permitió la explotación comercial para la distribución de las señales de televisión. El satélite realiza dos funciones fundamentales, la de permitir los enlaces de las señales de un punto al otro del orbe, mediante enlaces de microondas, y la distribución de la señal en difusión. Cada uno de estos tipos de emisión tiene sus ventajas e inconvenientes, mientras que el cable garantiza la llegada en estado óptimo de la señal, sin interferencias de ningún tipo, precisa de una instalación costosa y de un centro que realice el embebido de las señales, conocido con el nombre de cabecera. Solo se puede entender un tendido de cable en núcleos urbanos donde la aglomeración de habitantes haga rentable la inversión de la infraestructura necesaria. Otra ventaja del cable es la de disponer de un camino de retorno que permite crear servicios interactivos independientes de otros sistemas (normalmente para otros sistemas de emisión se utiliza la línea telefónica para realizar el retorno). El satélite, de elevado costo en su construcción y puesta en órbita permite llegar a lugares inaccesibles y remotos. También tiene la ventaja de servicios disponibles para los televidentes, que posibilitan la explotación comercial y la rentabilidad del sistema. La comunicación vía satélite es una de las más importantes en la logística militar y muchos sistemas utilizados en la explotación civil tienen un trasfondo estratégico que justifican la inversión económica realizada. La transmisión vía radio es la más popular y la más extendida. La inversión de la red de distribución de la señal no es muy costosa y permite, mediante la red de reemisores necesaria, llegar a lugares remotos, de índole rural. La señal es mucho menos inmune al ruido y en muchos casos la recepción se resiente. Pero es la forma normal de la difusión de las señales de TV.
Difusión digital
Barras de color EBU en formato YUV.
Estas formas de difusión se han mantenido con el nacimiento de la televisión digital con la ventaja de que el tipo de señal es muy robusta a las interferencias y la norma de emisión está concebida para una buena recepción. También hay que decir que acompaña a la señal de televisión una serie de servicios extras que dan un valor añadido a la programación y que en la normativa se ha incluido todo un campo para la realización de la televisión de pago en sus diferentes modalidades. La difusión de la televisión digital se basa en el sistema DVB Digital Video Broadcasting y es el sistema utilizado en Europa. Este sistema tiene una parte común para la difusión de satélite, cable y terrestre. Esta parte común corresponde a la ordenación del flujo de la señal y la parte no común es la que lo adapta a cada modo de transmisión. Los canales de transmisión son diferentes, mientras que el ancho de banda del satélite es grande el cable y la vía terrestre lo tienen moderado, los ecos son muy altos en la difusión vía terrestre mientas que en satélite prácticamente no existen y en el cable se pueden controlar, las potencias de recepción son muy bajas para el satélite (llega una señal muy débil) mientras que en el cable son altas y por vía terrestre son medias, la misma forma tiene la relación señal-ruido. Los sistemas utilizados según el tipo de canal son los siguientes, para satélite el DVB-S, para cable el DVB-C y para terrestre (también llamando terrenal) DVB-T. Muchas veces se realizan captaciones de señales de satélite que luego son metidas en cable, para ello es normal que las señales sufran una ligera modificación para su adecuación a la norma del cable. En EE.UU. se ha desarrollado un sistema diferente de televisión digital, el ATSC Advanced Televisión System Committee que mientras que en las emisiones por satélite y cable no difiere mucho del europeo, en la TDT es totalmente diferente. La deficiencia del NTSC ha hecho que se unifique lo que es televisión digital y alta definición y el peso de las compañías audiovisuales y cinematográficas ha llevado a un sistema de TDT característico en el que no se ha prestado atención alguna a la inmunidad contra los ecos.
]Televisión por cable[/i]
La televisión por cable surge por la necesidad de llevar señales de televisión y radio, de índole diversa, hasta el domicilio de los abonados, sin necesidad de que éstos deban disponer de diferentes equipos receptores, reproductores y sobre todo de antenas. Precisa de una red de cable que parte de una cabecera en donde se van embebiendo, en multiplicación de frecuencias, los diferentes canales que tienen orígenes diversos. Muchos de ellos provienen de satélites y otros son creados ex profeso para la emisión por cable. La ventaja del cable es la de disponer de un canal de retorno, que lo forma el propio cable, que permite el poder realizar una serie de servicios sin tener que utilizar otra infraestructura. La dificultad de tender la red de cable en lugares de poca población hace que solamente los núcleos urbanos tengan acceso a estos servicios. La transmisión digital por cable esta basada en la norma DVB-C, muy similar a la de satélite, y utiliza la modulación QAM.
]Televisión por satélite[/i]
La difusión vía satélite se inició con el desarrollo de la industria espacial que permitió poner en órbita geoestacionaria satélites con transductores que emiten señales de televisión que son recogidas por antenas parabólicas. El alto coste de la construcción y puesta en órbita de los satélites, así como la vida limitada de los mismos, se ve aliviado por la posibilidad de la explotación de otra serie de servicios como son los enlaces punto a punto para cualquier tipo de comunicación de datos. No es desdeñable el uso militar de los mismos, aunque parte de ellos sean de aplicaciones civiles, ya que buena parte de la inversión esta realizada con presupuesto militar. La ventaja de llegar a toda la superficie de un territorio concreto, facilita el acceso a zonas muy remotas y aisladas. Esto hace que los programas de televisión lleguen a todas partes. La transmisión vía satélite digital se realiza bajo la norma DVB-S, la energía de las señales que llegan a las antenas es muy pequeña aunque el ancho de banda suele ser muy grande.
]Televisión IP (IPTV)[/i]
El desarrollo de redes IP, basadas en accesos de los clientes a las mismas mediante ADSL o fibra óptica, que proporcionan gran ancho de banda, así como el aumento de las capacidades de compresión de datos de los algoritmos tipo MPEG, ha hecho posible la distribución de la señal de televisión de forma digital encapsulada en mediante protocolo IP. Han surgido así, a partir del año 2003, plataformas de distribución de televisión IP (IPTV) soportadas tanto en redes del tipo ADSL, VDSL o de fibra óptica para visualización en televisor, como para visualización en ordenadores y teléfonos móviles.
]La televisión de 3D[/i]
La visión estereoscópica o estereovisión es una técnica ya conocida y utilizada en la fotografía de principios del siglo XX. A finales de ese mismo siglo el cine en 3D, en tres dimensiones, era ya habitual y estaba comercializado. A finales de la primera década del siglo XXI comienzan a verse los primeros sistemas comerciales de televisión en 3D basados en la captación, transmisión y representación de dos imágenes similares desplazadas la una respecto a la otra y polarizadas. Aunque se experimentó algún sistema sin que se necesitaran gafas con filtros polarizados para ver estas imágenes en tres dimensiones, como el de la casa Philips, los sistemas existentes, basados en el mismo principio que el cine en 3D, precisan de la utilización de filtros de color, color rojo para el ojo derecho y cian para el ojo izquierdo, El sistema de captación está compuesto por dos cámaras convencionales o de alta resolución debidamente adaptadas y sincronizadas controlando los parámetros de convergencia y separación así como el monitoreado de las imágenes captadas para poder corregir en tiempo real los defectos propios del sistema. Normalmente se realiza una grabación y una posterior postproducción en donde se corrigen los defectos inherentes a este tipo de producciones (aberraciones, diferencias de colorimetría, problemas de convergencia, etc.).
Cámara de TV en 3D. Disposición vertical. •
Vista frontal de una cámara de TV en 3D.

|