domingo, 24 de febrero de 2013

RETOQUE FOTOGRAFICO


Retoque fotográfico

Comparación de una imagen de un rostro retocada digitalmente frente a su versión original.
Ejemplo de retoque digital y sus diferencias respecto a la imagen original de un paisaje.


Para otros usos de este término, véase retoque.
El retoque fotográfico es una técnica que permite obtener otra imagen modificada, ya sea para lograr una mejor calidad o más realismo, o para obtener una composición totalmente diferente que distorsione la realidad. Para llevar a cabo dicho proceso, se utilizan mayoritariamente programas informáticos.
Utilizando distintas técnicas de retoque fotográfico es bastante simple mejorar la calidad de las imágenes originales procesadas, consiguiendo así un resultado notablemente superior en calidad con respecto a la imagen original. Además también pueden conseguirse efectos impactantes o simplemente corregir diversos errores en las imágenes originales. Antes de la existencia de la fotografía en color era muy frecuente emplear acuarelas líquidas u otros pigmentos para ofrecer la imagen coloreada. También se retocaban los negativos fotográficos para eliminar imperfecciones.
Las técnicas de retoque fotográfico digital son hoy en día muy utilizadas como método de post-producción, sobre todo en ámbitos donde la imagen es lo que vende. Se da mucho su utilización en las producciones de modelaje, ya que la perfección en las modelos debe ser alcanzada a toda costa.
También se utiliza para publicidad cumpliendo una parte muy importante del trabajo final. Muchas veces nos encontramos con fotografías que son irreproducibles en la realidad solamente utilizando una cámara. Para esto se recurre al "fotomontaje" o retoque digital en donde se pueden manipular varias fotografías para crear una composición final. Hoy por hoy la tecnología permite un sin fin de propuestas gracias a los distintos software utilizados y las distintas técnicas (ilustración, CGI, 3D y más). El programa más usado en la actualidad es el Adobe Photoshop.

LOS MICROPROCESADORES COMO EVOLUCION


  • MicroprocesadorFecha: 1971
  • Utilidad: Gestión de todos los pasos en el procesamiento de datos, supervisando y controlando los componentes hardware del sistema
  • Inventor: Federico Faggin

El microprocesador es el circuito integrado más importante. Está formado por millones de transistores integrados. Incorpora en su interior una unidad central de proceso (CPU) permitiendo enlazar otros dispositivos. Para realizar su trabajo debe ejecutar paso a paso un programa que consiste en una secuencia de números binarios o instrucciones, almacenándolas en uno o más elementos de memoria, generalmente externos al mismo. La aplicación más importante de los microprocesadores, el ordenador.
EVOLUCIÓN
En el año 1971 y una empresa japonesa, Busicom, tenía un proyecto para una nueva calculadora. Ted Hoff, ingeniero de Intel, diseñó un chip (circuito integrado) con una memoria capaz de hacer varias acciones. Con 4 chips como este y dos chips más de memoria se diseñó el primer microprocesador de Intel, el 4004. Antes de crear el microprocesador hacía falta un chip para cada parte de la calculadora, con el 4004 todas las funciones estaban integradas en un solo circuito.
Este microprocesador contenía 2.300 transistores y transmitía con un bus de 4 bits. El 4004 podía realizar 60.000 operaciones por segundo, una miseria para nuestros días, todo un logro en los años 70.
Los siguientes productos de Intel Inside fueron siempre compatibles con sus predecesores así como los microprocesadores de otros fabricantes. Empresas como IBM, AMD o Apple se han dedicado también a fabricar microprocesadores.

LOS ÚLTIMOS PROCESADORES

core i5
Intel nuevamente libera una serie de micro procesadores denominada “K” pensada para los usuarios jugadores que gustan del overclocking, los cuales salen de fábrica con sus multiplicadores desbloqueados.
intel core i7s
INTEL CORE i5-655K e INTEL Core i7-875K cuentan con la tecnología Intel Turbo Boost y traen el multiplicador de la CPU desbloqueado como principal característica, permitiendo a overclockers aumentar la velocidad del reloj más fácilmente y con mayor estabilidad.
Según afirma el comunicado de prensa de Intel, estos nuevos procesadores brindan la mas alta calidad en experiencia para juegos que requieren resultados extremos, definiéndose en el dispositivo esencial para el publico mas exigente.
“Los procesadores Intel Core i5-655K y Core i7-875K, inauguran una  nueva oferta  de Intel, la cual fue pensada y creada para gamers , amantes del overclocking, y aquellos usuarios de aplicaciones con altos niveles de exigencia. Buscamos constantemente atender las necesidades de  nuestros clientes. A través de los Procesadores Intel serie  ‘K”, gamers y expertos podrán realizar las pruebas de overclocking que deseen y  llevar el desempeño del equipo al extremo.”
No hay que olvidar que estos micro procesadores incluyen unidad de procesamiento gráfico, la cual resulta mas beneficiada por estas características.
INTEL CORE i5-665K cuenta con dos núcleos funcionando a 3,2 GHz (3,46 GHz con Turbo Boost), dispone de HyperThreading por lo que puede ejecutar hasta 4 hilos y tiene un núcleo gráfico Intel HD Graphics funcionando a 733 MHz. Dispone de 4MB de Smart Caché.
INTEL CORE i7-875K es un procesador de cuatro núcleos, funcionando a 2,93 GHz (3,6 GHz con Turbo Boost), dispone de HyperThreading por lo que puede ejecutar hasta 8 hilos. No dispone de núcleo gráfico. Dispone de 8MB de caché.
Sin duda una excelente oferta para todos los entusiastas del tema. Esperamos ansiosos por la disponibilidad de los productos y por el precio…

sábado, 23 de febrero de 2013

Computadoras del Futuro




Computadoras del Futuro

Añadir leyenda
Lo que se busca con esta investigación es saber o tener una idea de que es lo que viene para las computadoras. 

Computadoras quánticas.
En 1965, el presidente emérito y cofundador de Intel, Gordon E. Moore- ideólogo de la ley-, se da cuenta de que el número de transistores que contiene un microchip se duplica aprox. Cada año pero, esta progresión no es infinita.
La miniaturización de circuitos tiene un limite ya que el reducir tanto su tamaño hace que produzcan demasiado calor. Por otra parte, a la escala nanométrica entran las leyes de la física quántica al juego, en la que los electrones se comportan de una manera probabilística.
Algunos Físicos en 1982 empezó a gestarse una idea que parecía descabellada: construir una computadora quántica, una maquina capaz de aprovecharse de las particulares leyes físicas del mundo subatómico para procesar a gran velocidad ingentes cantidades de datos y, en definitiva, hacer que las supercomputadoras actuales parezcan simples ábacos.
A diferencia de las computadoras personales que han sido diseñadas para que trabajen con información en forma de bits una computadora básica usa bits quánticos o qubits, capaces de registrar unos y ceros a la vez. Esto lo logran gracias a la una de las premisas fundamentales de la mecánica quántica: la sobreposicion, que indica que a escalas ínfimas un único objeto puede tener al mismo tiempo dos propiedades distintas o pueda estar en dos sitios a la vez. De esta forma la velocidad d calculo aumenta enormemente.

Computadoras Ópticas:
Muy rápidas y baratas.
Kevin Homewood está al frente de un grupo de expertos de la universidad de Surrey, Inglaterra, que cree que la clave se encuentra en la luz. Según estos investigadores, es factible construir un dispositivo óptico de computación que se aproveche de la velocidad luz y de su gran capacidad para transportar información. El problema al que se han enfrentado estos científicos es que el silicio es con el que se fabrican microchips normalmente emite energía calorífica, no luminosa. Para superarlo Homewood y sus colegas construyeron trampas a escala atómica en el interior del silicio donde consiguieron atrapar electrones y forzarlos a liberar energía lumínica. A parte de miniaturizar los chips y hacerlos más eficientes este prototipo podrá funcionar a temperatura ambiente.
Computadoras basadas en e
l ADN
California Leonard Adleman sorprendió a la comunidad científica al solventar esta cuestión utilizando una pequeña gota de un liquido que contenía ADN. Adleman ideo un método de plantear el problema a partir de bases enfrentadas que forman hebras de la molécula del ADN: A, C, T y G, las letras del abecedario genético. De esta forma, utilizando los mismos patrones químicos que permiten que las bases se unan de una forma especifica se identifico la solución correcta en un tiempo record: había nacido la computadora de ADN. 
Y no es algo para tomarse a la ligera, pues cada centímetro cúbico de ADN contiene mas información que un billón de CD's. Pero, a pesar de que tiene esta memoria masiva y de que las computadoras de ADN utilizarían una cantidad mínima de energía para funcionar, aun se desconoce como hacer una maquina útil capaz de aprovechar todas estas ventajas.

Computadoras Neuroelectrónicas
En el instituto Maxplanck de bioquímica, cerca de Munich, el profesor Peter Fromherz y sus colaboradores han conseguido hacer que el silicio interactué con tejidos vivos. Esta tecnología, conocida como neuroelectrónica, abre una vía de comunicaciones entre computadoras y células. El primer “neurochip” ha consistido en fusionar y hacer que trabajen juntos un microchip y las neuronas de un caracol. En el futuro, gracias a esta tecnología, podrían lograrse implantes que como una neuroprótesis capaces de sustituir las funciones del tejido dañado del sistema nervioso.
Añadir leyenda

jueves, 21 de febrero de 2013

tecnologias


El top 10 de tecnologías móviles claves para 2012

Qué tecnologías móviles e inalámbricas serán clave durante los próximos dos años? La consultora Gartner identifica las diez que serán a su juicio más relevantes para empresas, empleados y consumidores.

La selección se ha hecho en base a la influencia de su evolución en las estrategias empresariales, el número de clientes o empleados que se espera que las incorporen a su día a día y su potencial para contribuir a solucionar los retos que van a plantear en cuanto a movilidad para las organizaciones a lo largo de 2011.
Estas tecnologías son las siguientes: las versiones 3 y 4 de Bluetooth que saldrán al mercado el año próximo. La versión 3 mejorará la velocidad de 802.11, con lo que se facilitarán las transmisiones multimedia, mientras que la versión 4 se centrará en el ahorro de energía necesario para usar junto con sensores y periféricos externos.
La navegación a través de los móviles inteligentes en Internet, que contarán con mejores pantallas que los actuales dispositivos móviles. Microsoft trabaja ya en mejorar su navegador para el próximo Windows Phone 7.
Los widgets para móviles, que se basarán en tecnologías como el JavaScript y el HTML, y que se centrarán en poner a disposición del usuario contenidos en tiempo real que pueden ir desde la información metodológica hasta las entradas de los blogs.
Las herramientas que permitan el desarrollo de programas que se puedan instalar en todo tipo de móviles, sin importar qué sistema operativo utilicen, con el objetivo de que las aplicaciones puedan usarse en la mayor cantidad de dispositivos posibles.
La creación de tiendas online por parte de empresas y organizaciones que permita el acceso de los clientes y empleados a distintos tipos de aplicaciones.
La mejora de la localización en la tecnología GPS, que estará disponible en tres de cada cuatro dispositivos móviles, que permitiría un mayor desarrollo de programas que aprovecharían las nuevas funcionalidades que esta mejora traería consigo. Un efecto colateral se producirá en el área de la privacidad, sobre la cual aumentará el interés y la preocupación.
La aparición del 4G, que supondrá el espaldarazo definitivo a la banda ancha móvil e impulsará la creación de nuevos tipos de dispositivos móviles.
La relevancia de las pantallas táctiles, que la gran mayoría de smartphones ya incorporan, y que serán muy tenidas en cuenta a la hora de desarrollar nuevas aplicaciones.
El avance que se producirá en las comunicaciones de máquina a máquina (M2M), lo que permitirá también la creación de dispositivos y programas nuevos en distintas áreas como la distribución, la seguridad o las redes eléctricas inteligentes.