• Inicio

Usuarios de Skype se encuentran en riesgo ante la distribución de un archivo malicioso  a través del módulo de mensajes instantáneos.

México, DF.- Telefónica Movistar se le adelantó a Telcel y anunció este miércoles la comercialización de la red LTE (4G) a partir del próximo 15 de octubre en la Ciudad de México, y 15 días después en las ciudades de Guadalajara y Monterrey.

El consejero delegado de Telefónica México, Juan Abellán, en conferencia de prensa aseguró que la empresa actualmente ya inició la primera fase de LTE —Movistar llama 4G a la red HSPA+— para dispositivos como tablets y computadoras más que teléfonos. Sin embargo, en cuanto tengan smartphones con esta conectividad se incluirán en la oferta.

Jueves, 26 Julio 2012 15:03

Tecnología a “la mesa”

Redacción
Cuántas veces no hemos visto en películas o series de televisión como se manipula información a través de una pantalla táctil enorme montada con una mesa. Samsung trae a México  esta tecnología que para muchos había quedado en mera ficción.
“Samsung SUR40”, es un innovador dispositivo con una pantalla táctil, reconocimiento de objetos y gestos, que ofrece una interacción inigualable con un uso intuitivo, natural e innovador; diseñado para un uso múltiple simultáneo con acceso a información digital de forma inmediata.
El equipo proporciona una gran experiencia visual gracias a su pantalla LED FullHD de 40 pulgadas con una resolución de 1920x1080 píxeles, que incluye una experiencia multiusuario y Multitouch, con posibilidad de tener más de 50 puntos de contacto diferentes al mismo tiempo, de fácil control y rápida personalización, pues permite configurar aplicaciones al igual que modificar diversas características según el usuario a través de una interfaz amigable, al tiempo que cuanta con el panel de protección Gorilla Glass.
INTERACCIÓN INTUITIVA
Esta innovación integra tecnología PixelSense, de Microsoft, que consiste en pixeles individuales que permiten los paneles LCD ver lo que está proyectando sobre la pantalla, procesarlo e interpretarlo de inmediato a través de una computadora integrada.
El dispositivo responderá al tocarlo a diversos gestos naturales realizados con la mano u objeto sobre su superficie, tal como arrastrar la información a lo largo de la pantalla al igual que in dispositivo touch convencional, pero con decenas de ítems al mismo tiempo: así mismo reconocerá objetos del mundo real colocados sobre él, proporcionando diversas respuestas digitales, ofreciendo una interacción sin esfuerzos, simple natural e intuitiva. Gracias a su posición horizontal será más sencillo reunir a diferentes usuarios alrededor de SUR40, lo que permitirá una interacción múltiple y simultánea de numerosas personas.
En corto
*Pantalla multitouch de 40 pulgadas con 1920x1080 pixeles de tecnología Gorilla Glass
*Resolución FHD (1080p) y sonido de 4 bocinas
*Tecnología PixelSense para ver y responder al tacto y objetos
*Reconoce y reacciona simultáneamente a más de 50 puntos de contacto
*Computadora Integrada para comunicarse con dispositivos periféricos y sistemas
*Conexión vía Wi-Fi, Ethernet y Bluetooth
*Unidades CPU y GPU con tecnología AMD para un alto desempeño

Fuente: El Universal
Fecha: Lunes 9 de julio del 2012

Jueves, 29 Marzo 2012 21:15

Internet: ¿víctima de su crecimiento?

 Por Mark Page, Luca Rossi y Colin Rand

 La capacidad de Internet para transportar información está llegando a su límite. Es necesario realizar cambios de fondo en el modelo de negocio que la sustenta para que siga aportando los beneficios económicos y sociales como hasta ahora. ¿De qué cambios estamos hablando?

A pocos sorprende que Internet cuente con una importante dimensión política. La mayoría de los gobiernos y autoridades regulatorias del mundo fomentan y promueven el uso de Internet; algunos consideran necesario subsidiar servicios que no son viables comercialmente, para asegurar que el 100% de su población cuente con acceso. El debate se extiende a temas relacionados con la competencia para "nivelar lacancha de juego", dicen, o a modelos para ejercer derechos de propiedad y de consumo.
Tanto aquéllos que diseñan política, públicas como la población en general, creen que Internet seguirá funcionando bien y que será capaz de sustentar buena parte del crecimiento futuro del planeta. Sin embargo, esta expectativa no se cumplirá si no se incrementan considerablemente los niveles de inversión; y estas inversiones no se darán si no se modifica el modelo económico que hace funcionar a Internet.
El más beneficiado por el actual modelo económico es el consumidor final; pero esto no ha sido así con las empresas que integran diferentes segmentos de la cadena de valor de Internet cuyos resultados han sido mixtos. Los principales Proveedores de Servicios (Online Service Providers, OSP) y la industria de hardware y software que desarrolla interfaces para el usuario final (User Interfaced manufacturers) han logrado altos rendimientos para sus accionistas, mientras que los proveedores de conectividad y los propietarios de los derechos de contenidos (Content Rights owners) hanobtenido menos beneficios ; y también ha habido destrucción de valor en algunos segmentos de la idustria de medios.

La ineficiencia del modelo comercial de Internet

Las cifras y predicciones relacionadas con el crecimiento del tráfico de Internet en el mediano plazo son muy impresionantes y generan desafíos importantes para la viabilidad del modelo económico actual. El trafico en las redes fijas crece 35% cada año, y en las móviles más del 100%.
Esto se debe a que los nuevos dispositivos cuentan con mayor capacidad, y a que gracias a una nueva ola de innovación, han surgido recientemente muchos servicios que requieren de altas velocidades. Por eso, el riesgo de que Internet se vuelva víctima de su propio éxito no es remoto.
Pero por sobre cualquier otra consideración, el crecimiento del video-buena parte del cual es gratis para el usuario final-tiene un efecto dramático en el uso de Internet, pues amenaza con niveles inaceptables de congestión para los usuarios de todos los servicios. Esta saturación ocirrirá inevitablemente si los operadores no invierten para incrementar la capacidad actual de sus redes, y lo deberán hacer a la par del crecimiento del tráfico.
Hoy, la congestión en las redes de voz se manifiesta con llamadas bloqueadas; pero en el caso de Internet, su efecto se degarada progresivamente.
Esta degradación de los servicios frustrará al usuario final, pero también afectará a los proveedores  de servicios en línea, que con toda seguridad verán disminuir sus ingresos debido a que perderán ventas, usuarios, e ingresos por publicidad.
Parte de la solución proviene de la tecnologia, que puede, potencialmente, incrementar la capacidad actual de las redes para transportar información, y podrá además, mejorar considerablemente la gestión técnica del tráfico mediante la compresión de contenidos y su hospedaje en zonas cercanas a donde se consume(caching, en ingles).

La cadena de valor de Internet está rota

Pero incluso esto no será suficiente por dos motivos; uno es la falta de incentivos económicos para que los proveedores de servicios en línea utilicen el ancho de banda de manera eficiente;
el otro es la falta de incentivos para invertir en la capacidad de las redes, debido a que existe una desconexión estructural en la cadena  de valor de Internet. Esta desconexión se da entre el tráfico, que es la principal palanca generadora de costos, y los ingresos.
La interconexión permite que el tráfico sea transportado de una red a otra gracias a acuerdos entre propietarios de redes, muchos de ellos bajo esquemas de peering. Estos acuerdos se sostiene por el "mejor esfuerzo" que hará cada quien por cumplir con lo pactado.Esto significa que no hay garantías del trato que cada red dará al tráfico, ode que éste llegue a su destino final.
Los usuarios finales pagan por tener acceso a Internet y es común que lo hagan por recibir un paquete de servicios que incluta telefonía y televisión restringida. La mayoría de los Proveedores de Servicios en Línea(PSL) pagan una tarifa a los proveedores de conectividad, para que los conecten a Internet. Esta tarifa se basa, por lo general, en el ancho de banda que requieren.
Sin embargo, los PSL más grandes actúan como si fueran, ellos mismos, proveedores de conectividad, por lo que se conectan con otras redes por medio de acuerdos de peering.
En ambos casos, estos cargos son, por lo general, tarifas planas(cuota fija por consumo ilimitado) no asociadas con el uso; los costos totales por este concepto constituyen una pequeña parte del total de su estructura de costos. De manera, los provvedores de servicios en línea pagan por conectar sus servicios a la red, pero no le pagan a quien transporta y entrega el servicio al destinatario final, esto es, al proveedor que ofrece servicios de conectividad al usuario final.
Bajo este modelo, Internet no es más que una plataforma que conecta a los PSL para que accedan a porciones más amplias de consumidores finales, quienes por su parte buscan acceder a la máxima selección posible de servicios.
En microeconomía esto se conoce como "mercado bilateral", una plataforma económica que reúne dos tipos diferentes de usuarios o mercados, donde se aplican, en cada uno de ellos, economías de escala. Los economistas clasifican a los mercados bilaterales como ciclos virtuosos, debido a que cada componente del mercado paga lo suficiente para que el mercado en su conjunto crezca y beneficie a todos.
Para el caso del Internet, el mercado bilateral se refiere a que los proveedores de conectividad ofrecen sus servicios de infraestructuta para conectar a dos grupos diferentes de usuarios que constituyen dos mercados distintos. Estos son los proveedores de servicios en línea y los usuarios finales. Para que sean exitosos, deben encontrar precios justos y equilibrados para cada mercado.
Este balance o equilibrio se refiere al valor que cada lado del mercado bilateral aporta al mercado en su conjunto. De esta forma, si se incrementan los cargos en uno de ellos, quienes deban pagar más podrían resultar beneficiados debido a que el otro lado del mercado incorporó a más usuarios e incrementó así el valor del conjunto.
No obstante, debido a la desconexión que hay entre las fuentes de ingreso y las fuentes de costo en Internet, este mercado bilateral está restándole valor al modelo, y mina futuras inversiones y beneficios asociados al crecimiento y a la inversión.
Si la capacidad de las redes crece para satisfacer los requerimientos de tráfico estimados para el 2014, y si esto no se acompaña con un nuevo esquema de precios o incremento de los ingresos, predecimos que los operadores de redes europeos disminuirán sus retornos de capitan aproximadamente 3 puntos porcentuales, ubicándolos entre 7% y 9%. Esto es bastante menos que el costo de su capital bajo cualquier esenario normal, y mucho más bajo que el retorno de capital que gozan los PSL, que son los que crean la demanda y altos volúmenes de tráfico.
Por ejemplo, si se mantienen los actuales niveles de retorno en las redes de telecomunicaciones (el llamado sector de la conectividad) se requerirán en 2014 ingresos adicionales de 28 mil millones de euros por año para poder invertir apenas lo suficiente para mantener el desempeño actual de las redes fijas y móviles. Esto representa, al día de hoy, el 10% del total del mercado de las telecomunicaciones. Ahora bien, si tomamos en cuenta la caída de los ingresos por servicios tradicionales(especialmente de voz), más la presión de la competencia y de los reguladores, crear ingresos adicionales de esta magnitud es un reto enorme.

¿Qué hacer entonces?

Para mantener el funcionamiento de Internet, existen alternativas de acción que pueden corregir los problemas descritos y asegurar el incremento de la capacidad de las redes. Algunas de estas opciones son:

-Modificar esquemas de tarifas al consumidor final.
Incrementar el precio a los usuarios finales, introduciendo tarifas que dependen del volumen de uso, para que de esta manera paguen más los que más utilizan la red.

-Establecer cargos de mayoreo que dependan del tráfico: Introducir en el mercado mayorista cargos por el transporte del tráfico basado en volumen. Esto incrementará las actuales tarifas, aunque seguirá representando, todavía, una pequeña fracción del precio de mercado para contenidos que requieren gran ancho de banda.

-Ofrecer una diversidad de servicios estandarizados con parámetros de calidad: Los proveedores de servicios el línea(OSP) que lo soliciten, podrán recibir una diversidad de servicios basados en estándares en que se establezcan compromisos de mayor desempeño. Estos se pagarán a un mayor precio. De esta manera los ingresos fluirán en cascada por toda la cadena de valor, renumerando a aquellos que invierten en mejorar la calidad del servicio.

-Ofrecer servicios a la medida con base en acuerdos bilaterales: Asegurar la evolución del mercado (como ya ha comenzado a ocurrir) a través de una serie de acuerdos comerciales bilaterales que operan en paralelo con el actual modelo de Internet. Esto satifará los requerimientos de grandes usuarios que requieren gran capacidad de ancho de banda, y liberarán capacidad para otros.

Para cada una de estas opciones, los esquemas de tarifas se podrán asociar al total del tráfico (medios en gigabytes), a cierto tipo de tráfico (basado en calidad o en servicios espacíficos), o a cierto tipo de proveedores (según sus modelos de negocio y su disposición para pagar). La estructura y el nivel de estos cargos evolucionarán bajo las fuerzas normales de la competencia hasta lograr el equilibrio del mercado, como ocurre en otros mercados bilaterales. Ninguna solución por sí sola podrá resolver los temas estructurales. Esperemos más bien que la respuesta más adecuada para la industria sea un híbrido de estas opciones. Cada una tiene su propio mérito.
Además, es demasiado pronto para predecir cuál sobrevivirá y cuál será descartada. Por eso, consideramos importante que quienes diseñen políticas públicas no restrinjan los procesos de innovación y competencia gracias al cual emergerá un modelo comercialmente más viable.
El único impacto negativo  que hemos identificado sería para aquellos que ofrecen inmensos volúmenes de video sin un modelo comercial suficientemente legitimado-y que con frecuencia se refiere a contenido pirata. En nuestra opinión, no vale la pena ahorcar a Internet por este asunto.
Creemos que todos los participantes en la cadena de valor de Internet deberían seguir con la flexibilidad y la libertad para crear y probar nuevos modelos de negocios en este mercado. Imponer una opción específica, o prohibir alguna, impide que el ecosistema de Internet encuentre soluciones eficientes para su actual problema estructural y, por tanto, impedirá que los usuarios gocen de servicios innovadores y de alta calidad.
Por otra parte, las actuales leyes de competencia nos parecen suficientes para atender conductas anticompetitivas que puedan aparecer si empresas con suficiente poder en el mercado en cualquier segmento de la cadena de valor de Internet intentan modificar los términos del mercado para obtener ventajas injustas.
Hasta ahora se ha puesto muy poca atención en el mundo a lo que aquí se ha planteado: cómo encontrar la inversión requerida si la desconexión estructural distorsiona los incentivos para invertir. Las recientes discuciones sobre la política de Internet tampoco han sido de gran ayuda.
Por ejemplo,hay una creencia, desorientada a nuestros juicio, que supone que los principios de libre expresión y libertad de emprendimiento que promueve Internet se verán coartadas por la introducción de un sistema más racional y balanceado de cobros y gestión del tráfico. Pero en realidad sucederá lo contrario: sin incentivos económicos claros, la congestión de tráfico "ahocará " la innovación y el uso.
La discusión es aún muy emergente. No proponemos nuevas prescripciones legislativas, intervenciones regulatorias, o subsidios fiscales para atender estas presiones. Recomendamos más bien que quienes diseñan políticas públicas apoyen iniciativas comerciales que contribuyan a la inversión, a la innovación y al uso más eficiente de Internet para beneficio de todos (Traducción de Andrés Hofmann).


Paginas: 23-26.
Fecha: agosto / septiembre 2011  
Fuente: Política digital
Intel juega un papel central y permanente en la bautizada "era Post PC". Sus microprocesadores son solo una parte de la estrategia 

Por Carlos Fernández de Lara 

Intel, la firma más grande de microprocesadores del planeta, no planea quedarse fuera del creciente-y cada vez más rentable-mercado de las tabletas multimedia, la híper movilidad y el cómputo en la nube. Para ello compañía está invirtiendo no sólo dinero sino también tiempo en el desarrollo de estrategias y nuevos estándares para el sector IT. Así lo dejaron ver Scott Overson y Jorge Gómez, director general y director de Negocios del Intel México, respectiva-
mente, en entrevista con InformatioWeek México, al definir la evolución y participación de la firma alrededor de los dos fenómenos más importantes dentro de la industria IT actual: movilidad y Cloud Computing.
Bajo los nombres de ultrabooks Intel Cloud 2015 Visión, Overson y Gómez muestran que la estrategia de la compañía es seguir operando como el cerebro de todo sistema de cómputo, independientemente de si se trata de una ultrabook, un servidor, una estación de trabajo, un automóvil o un dispositivo de bolsillo.

LOS 3 PILARES DE LA NUBE, SEGÚN INTEL

1. Federada. Se busca romper la dependencia de ofertas comerciales con el fin de que todos los proveedores sean compatibles y operen bajo estándares abiertos

2. Automotizada. Para su éxito, la Nube debe aprender a mover cargas de trabajo y servicios, así como adaptarse a necesidades sin intervención humana

3. Enfocada en el cliente. Si operan bajo estándares y de forma automática, los proveedores de servicios y tecnologías pueden enfocar su trabajo en el desarrollo de aplicaciones a favor del cliente sin importar el dispositivo: PC, ultrabooks, automóviles, telemedicina, etcétera.

NI NOTEBOOK, NI TABLET; LAS NUEVAS PC DE LLAMAN ULTRAS

Mientras analistas, futurólogos y expertos en tecnología aseguran que la llegada de las tabletas multimedia, los teléfonos inteligentes y los servicios en la Nube han marcado en fin de las PC como se les conoce, para Overson su llegada sólo significa una evolución más en el mercado de la computación: "Para Intel la era Post PC no significa el reemplazo de las notebooks y desktops. Al contrario: la computadora personal sigue siendo la solución central de muchas ex-
periencias de cómputo de usuarios y negocios".
Pese a lo que uno podría pensar, dado el creciente consumo de tabletas fabricantes como Apple, RIM, Samsung o Motorola, la realidad es que la venta de computadoras no enfrenta un declive masivo.
De acuerdo con Gartner, en 2011 se despacharon más de 387 millones de computadoras, y se espera que para 2012 la cantidad se eleve a 440 millones, lo que significa un aumento de 13.6%. Aun así, la consultora advierte que las ventas se verán afectadas a medida que usuarios y empresas enfocan sus inversiones en nuevos dispositivos de cómputo para cubrir "demandas o necesidades adicionales".
En ese sentido Overson agrega que las tabletas multimedia y los teléfonos inteligentes tendrán su nicho de mercado y usuarios particulares; situación similar para las recién llegadas ultrabooks, que "no son ni tablets ni smartphones".
Presentada en forma durante Computex 2011, en Taipéi (Taiwán), la ultrabook promete ser una nueva plataforma de cómputo, a diferencia de las netbooks, ofrecerá rendimientos similares o superiores a los de computadoras actuales integrando características de las tablets multimedia.
Algunos analistas las han bautizado como "tablet o notebook con esteroides". Aun así, el segmento tiene tal relevancia para la firma de microprocesadores que decidió abrir un fondo de $300 millones dólares para acelerar el desarrollo y crecimiento de mercado. A decir del presidente de Intel Capital, Arvind Sodhani, el segmento será un área importante dentro de la industria del cómputo a nivel global, valuada por la firma de consultoría IDC en más de $261,000 millones de dólares.
El interés ya está rindiendo frutos, pues durante el Intel Developers Forum, en la ciudad de San Francisco (Estados Unidos), ejecutivos de la firma aseguraron
que ya han despachado más de 75 millones de procesadores Intel Core de segunda generación, enfocados principalmente en crear la primera camada de ultrabooks.
Overson adelanta que con la salida de las arquitecturas Ivy Bridge (a principios de 2012) y Haswell (al comienzo de 2013), la compañía entregará nuevas funcionalidades de desempeño, rendimiento, consumo de energía y seguridad, capaces de crear una experiencia de cómputo móvil nunca antes vista.
"En Intel tenemos una visión definida como Cómputo continuo, en la que tarde o temprano computadoras, tabletas, netbooks e incluso cajeros automáticos, automóviles y la Nube requerirán de poder de cómputo estable. Desde hace varios años estamos trabajando para ser parte y habilitadoras de esa evolución", apunta Overson.

SEGURO Y CON LARGA BATERÍA 

Con Ivy Bridge, Intel promete entregar funciones de seguridad únicas, apalancadas a raíz de la compra de McAfee. En particular cuenta con un servicio antirrobo que entregará funciones de bloqueo del dispositivo, limpieza de datos y seguimiento de la ubicación del mismo.
La llegada de Haswell, en 2013, permitirá la posibilidad de crear ultrabooks con un desempeño superior al de cualquier computadora portátil en el mercado y un ahorro de energía capaz de proveer más de 10 días de duración de la batería en modo de espera.

CLOUD: HORA DE HABLAR DE ESTÁNDARES

Los dispositivos son apenas una arista en la estrategia de Intel. La firma también planea operar como el cerebro de silicio de cada aparato o servidor dedicado a entregar servicios o aplicaciones a través de la Nube. "Queremos que el concepto de Cloud pierda el sentido comercial; por eso en Intel entendemos el cómputo en la Nube bajo un modelo federado, automatizado y enfocado al cliente (ver Recuadro adjunto, "Los 3 pilares de la Nube, según Intel"), ya sea que este cliente sea un dispositivo o una persona", dice el director de Negocios de la firma.
El objetivo, a decir de Gómez, es crear una visión alrededor de Cloud, planteando su evoloción durante los siguientes 15 años. Y para ello la empresa creó la Open Data Center Alliance (ODCA), asociación "democrática" en la que participan más de 280 empresas alrededor del mundo de diferentes industrias, todas ellas dispuestas a compartir sus mejores prácticas, proyectos y consejos en torno a iniciativas de Nube.
"Tenemos desde bancos, compañías de manufactura y PyME, hasta firmas mexicanas como Grupo Salinas, Banorte y Cemex. Lo que la ODCA busca es comenzar a crear reglas y estándares a través de experiencias, comentarios y sugerencias de organizaciones de todo el mundo", explica Gómez.
En otras palabras, se trata de un libro de recetas "imparcial" para todas aquellas organizaciones que tienen dudas sobre riesgos, limitantes, costos e incluso los famosos acuerdos de niveles de servicio (SLA) que hay alrededor del modelo de Cloud Computing.
El valor para Intel es jugar como proveedor de microprocesadores de esas plataformas y dispositivos conectados a la red. Todas las soluciones de la empresa IT habilitadas para operar servicios o aplicativos bajo demanda tienen ya un distintivo con el nombre Cloud Builder.
"Si pensamos en la Nube como producto y le damos una visión a corto plazo se estancará, porque igual y hoy el automóvil nos funciona, pero qué va a pasar en 2015 cuando tengamos más 15,000 millones de dispositivos conectados a la red", deja ver Gómez.

         

Paginas: 34-35
Fecha: octubre 2011 
Fuente: InformationWeek México
Página 28 de 28