> weblog context noviembre 2002
samplea el nuevo contexto cultural
| casa | mapa sitio | acerca context | lang >>> english - català |
 
 
jueves :: 28 de noviembre de 2002
 
biblioteca digital internacional de los niños
:: para servir y explorar con los lectores jóvenes

Dirigida por la Universidad de Maryland y el Archivo de Internet, una cooperación entre el gobierno estadounidense, organizaciones académicas e industriales y fundaciones sin ánimo de lucro ha sacado a la luz la biblioteca digital internacional más grande del mundo dirigida a los niños.

El proyecto está financiado por la National Science Foundation con ayuda adicional de otros socios como parte de un proyecto de investigación a largo plazo para desarrollar nuevas tecnologías para servir a los jóvenes lectores. La nueva *International Children's Digital Library* (ICDL - ver http://www.icdlbooks.org/) proveerá a los niños con edades entre los 3 a los 13 años una oportunidad sin igual de experimentar diversas culturas a través de la literatura. La nueva biblioteca digital comenzará con 200 libros en 15 idiomas que representan a 27 culturas, con planes para crecer en cinco años a unos 10.000 libros que representarán a 100 culturas diferentes.

Mientras que la colección de la ICDL's se concibe para proporcionar acceso a los mejores libros infantiles del mundo, una ventaja primaria a largo plazo del proyecto puede ser el descubrir cómo los niños pueden interactuar mejor con los libros digitales. "Las historias cautivadoras ayudan a los niños a crecer intelectual y emocionalmente, ganando comprensión de quiénes son y aprendiendo sobre los otros y el mundo que les rodea, todo ello divirtiéndose mucho", dijo Allison Druin, coordinadora de proyecto de la ICDL en la Universidad de Maryland. "Creemos que la Biblioteca Digital Internacional de los Niños puede proporcionar una importante vía para que los niños experimenten con nuevos libros y exploren otras culturas."

En la recopilación de la colección 10,000 libros, la ICDL también trabajará para entender los procesos de adquisición de datos y gestión de derechos en la creación de una biblioteca digital de gran escala. La ICDL colaborará con socios industriales de las tecnologías necesarias para incorporar los libros con derechos de autor mientras se respetan las leyes de propiedad intelectual. >de *NSF-Supported International Children's Digital Library to Launch November 20*, 18 de noviembre, 2002.

contexto relacionado
>
Internet Archive
> proyecto gutenberg: biblioteca on-line de dominio público premiada. 31 de octubre, 2002

> niños y libros
miércoles :: 27 de noviembre de 2002
 
 
> la tele-immersión experimental
demostración de teleinmersión
:: hito de la informática en grid

Utilizando un grupo de cámaras que filma constantemente a los participantes y su entorno, la teleinmersión permite que personas en diferentes lugares se sientan como si charlaran en el mismo cuarto. Pero acumular la información resultante de la filmación en tiempo real de una persona y su ambiente tiene un precio: la teleinmersión genera enormes cantidades de datos, requiriendo potencias de proceso y anchos de banda masivos.

Mientras que el sistema de teleinmersión recopiló y mostró la información en cabinas yuxtapuestas en el Centro de Convenciones de Baltimore, en proceso de datos tenía lugar a unos 400 kilómetros de allí, en el Pittsburgh Supercomputing Center. El aumento en la potencia de proceso alcanzado con la utilización del centro de computación de Pittsburgh permitirá cuando menos un significativo avance en las prestaciones de la teleinmersión: Por primera vez, el sistema podrá reproducir la imagen de todo el habitáculo en tiempo real. Hasta ahora, la limitada potencia de proceso restringió la toma de imágenes a una pequeña zona donde se sentaban los participantes, mientras que el fondo era estático, no muy diferente de un presentador de televisión sentado frente a la imagen fotográfica de un perfil urbano.

"La reasignación del proceso de datos de la teleinmersión a un centro de supercomputación remoto es un hito para la grid, que utiliza las máquinas remotas para procesar datos” ha dicho Kostas Daniilidis. “Si las conexiones son suficientemente rápidas, como ocurre con Internet2, la red misma se convierte en una computadora gigante, enlazando los procesadores dispersos en muchos centenares de kilómetros. Este experimento de teleinmersión demuestra definitivamente que una computadora de red configurada de este modo puede manejar operaciones extremadamente intensivas mucho más rápidamente que si el proceso ocurriera dentro de los límites de un solo edificio".

Todo este proceso es para una buena causa. Daniilidis y sus colegas dicen que la teleinmersión bien puede revolucionar la forma en que la gente se comunica, permitiendo que personas en los extremos opuestos del país o del mundo se sientan temporalmente como estando en presencia de los demás. La clave de la sensación realista de la teleinmersión es un banco hemisférico de cámaras digitales que filman a los participantes desde una variedad de ángulos y unos dispositivos que los participantes llevan en sus cabezas. Combinado con los cristales polarizados como los utilizados en las películas 3D, el equipo crea imágenes sutilmente diferentes en cada ojo, así como nuestros ojos hacen en la vida cotidiana.

La colaboración para la teleinmersión que implica a Penn, UNC y el Pittsburgh Supercomputing Center es financiada por la National Science Foundation. >de *Tele-Immersion System Is First ‘Network Computer,’ with Input, Processing and Output in Different Locations*, 18 de noviembre, 2002.

contexto relacionado
>
About Internet2
> primer con-tacto trasatlántico: tacto en realidad virtual. 4 de
noviembre, 2002

 
 
 
martes :: 26 de noviembre de 2002
 
modelo computerizado de e-coli
:: prediciendo la evolución de bacterias

Unos bio-ingenieros han utilizado su modelo informático de E-coli (pendiente de patente) para predecir exactamente cómo se desarrollarían las bacterias bajo condiciones específicas. Los resultados pueden tener aplicaciones para el diseño a medida de materiales biológicos para aplicaciones comerciales o para predecir la evolución de bacterias resistentes a drogas.

“Esto es totalmente revolucionario - que se pueda predecir realmente el resultado de un proceso tan complicado e intrincado como la evolución adaptiva - dice Bernhard Palsson, profesor de bioingeniería de la UCSD y a co-autor del estudio con Jeff Hasty, también profesor de bioingeniería de la UCSD. El estudio también sirve como ejemplo del impulso de la biología de sistemas, un campo emergente dedicado a emplear las matemáticas y la simulación computerizada para entender cómo los genes y las proteínas trabajan juntos para controlar la función celular.

Palsson creó un modelo computerizado de E-coli en el año 2000 y desde entonces ha demostrado que el modelo imita exactamente el comportamiento de las bacterias durante el 80% del tiempo. En las últimas dos décadas, Palsson ha estado trabajando en el gran desafío de crear modelos informáticos de estas funciones biológicas. Emplea una técnica que él llama modelos basados en resticciones, básicamente describiendo lo que una célula no hace, para llegar a definir lo que si puede hacer mediante un proceso de eliminación. Hasta la fecha, Palsson ha creado en modelos del metabolismo para E-coli, glóbulos rojos, H.influenzae, H.pylori y levadura.

Los investigadores están comenzando a construir y a comprobar versiones sintéticas de los módulos de control dentro del trazado conectivo de las células. Por ejemplo, Hasty ha desarrollado un modelo de loop de respuesta positiva, en el cual un gen produce una proteína que a su vez provoca que el gen devenga más activo. Dice que a medida que los científicos comiencen a sintetizar estos simples módulos de red en el contexto de modelos matemáticos, se preparara la base para el control de las funciones celulares, que podría tener usos importantes en nanotecnología y terapia genética y celular. La meta a largo plazo de Hasty es construir redes genéticas sintéticas que se pudieran insertar en las células de un paciente para regular ajustadamente la expresión de una proteína deseada, o incluso causar la autodestrucción de una célula indeseable. >de *UCSD Bioengineers Use Computer Model to Predict Evolution of Bacteria*, 20 de noviembre, 2002.

contexto relacionado
>
Worldwide E.coli alliance. 4 de septiembre, 2002

> e-coli: pedacitos de vida; la vida a pedacitos?

[pedacitos=bits]
lunes :: 25 de noviembre de 2002
 
 
> célula solar para la automoción: estación de servicio
célula solar de espectro completo
:: descubrimiento inesperado

Un solo sistema de aleaciones que incorpora indio, galio y nitrógeno puede convertir prácticamente todo el espectro solar - del infrarrojo cercano al ultravioleta lejano- a corriente eléctrica.

Lo qué comenzó como los puntos básicos de un tema de investigación puede derivar en un uso práctico del enorme potencial. Dado que si las células solares se pueden fabricar a partir de esta aleación, prometen ser robustas, relativamente baratas y las más eficientes jamás creadas. Wladek Walukiewicz y sus colegas (del Lawrence Berkeley National Laboratory - laboratorio de Berkeley -, un grupo en la Universidad de Cornell dirigido por William Schaff y un grupo en la universidad japonesa de Ritsumeikan dirigido por Yasushi Nanishi) estaba estudiando no cómo los semiconductores absorben la luz para crear corriente eléctrica, sino cómo utilizan la electricidad para emitir luz.

"Si funciona, el coste debería ser similar al de un semáforo", declara Walukiewicz. "quizá menos". Células solares tan eficientes y tan relativamente baratas podrían revolucionar el uso de la energía solar no sólo en el Espacio sino también en la Tierra. >de *An unexpected discovery could yield a full spectrum solar cell*, 18 de noviembre, 2002.

contexto relacionado
>
energía para el planeta invernadero: hacia un nuevo sistema energético global. 13 de noviembre, 2002
> spintrónica en plásticos: del silicio a computadoras basadas en el plástico. 1 de octubre, 2002
> nanoparticles used in solar energy conversion. 9 de agosto, 2002

 
 
 
jueves :: 21 de noviembre de 2002
 
los superordenadores más rápidos del mundo
:: publicada la lista top500 2002

En el qué se ha convertido en un muy esperado acontecimiento en el mundo de la informática de alto rendimiento, se ha anunciado la vigésima edición de la lista "TOP500" de los superordenadores más rápidos del mundo.

El superordenador del Simulador Terrestre instalado este año en el Centro para la Investigación del Simulador Terrestre de Yokohama, Japón, con su estándar comparativo de rendimiento Linpack de 35,86 Tflop/s (trillones de cálculos por segundo), mantiene la posición del número uno (el año pasado, el sistema ASCI White de IBM en el Livermore National Laboratory era el superordenador número uno del mundo, con un funcionamiento de 7,2 teraflop/s). La 2º y 3ª posiciones son mantenidas por dos nuevos e idénticos sistemas de ASCI Q en el Laboratorio Nacional de Los Alamos, Nuevo Méjico (7,73 Tflop/s cada uno). Estos sistemas están construidos por Hewlett-Packard y basados en el sistema informático AlphaServer SC.

Por primera vez, 2 clusters basados en PCs han podido alcanzar una posición entre los 10 primeros. En la posición 5 hay un cluster del Lawrence Livermore National Laboratory construido por Linux NetworX y Quadrics En la posición 8 figura un cluster en el Laboratorio de Sistemas de Pronóstico en el National Oceanic and Atmospheric Administration (construido por HPTi con una interconexión de Myrinet).

En términos de rendimiento total de todos los sistemas instalados, la última edición TOP500 muestra a IBM como inmóvil en el liderazgo con 31,8 por ciento, delante de HP con 22,1 por ciento y NEC con 14,6 por ciento. Un total de 55 clusters de PCs basados en Intel y ocho en AMD están actualmente presentes en el TOP500. El número de clusters en el TOP500 creció otra vez a un total de 93 sistemas. Catorce de estos clusters se etiquetan como 'AutoConstruidos' al haber sido diseñados y ensamblados por los propios usuarios finales.

Siete de los sistemas TOP10, el 46% de los 500 sistemas y el 51% del rendimiento total están instalados en los Estados Unidos. También el 91% de los 500 sistemas han sido producidos en los Estados Unidos. >de *TOP500 List Of World's Fastest Supercomputers Released* , 15 de noviembre, 2002.

contexto relacionado
>
Earth Simulator press release. 18 de abril, 2002
> linux for world's biggest computer. 31 de enero, 2002
> los superordenadores más rá pidos del mundo: publicada la ultima edición del top500. 22 de noviembre, 2001
> superordenador asci white. 29 de junio, 2000

> concepto de ordenador empaquetado al vacío por Allen, inventor y diseñador industrial sin empleo
miércoles :: 20 de noviembre de 2002
 
 
> dejad libre la comunicación eléctrica
sistemas para evitar la censura en Internet
:: posibles debilidades

Una amplia variedad de sistemas, incluyendo los programas llamados *Triangle Boy*, *Peek-A-Booty*, *Six/Four* y *CGIProxy*, han sido propuestos para evitar la censura de Internet en países tales como China y Arabia Saudita, sin un claro ganador que emerja como la indiscutible mejor solución anti-censura.

Una razón es que no ha habido mucha discusión sobre cómo estos sistemas responderían ante los diversos tipos de ataques que se podrían montar por parte de los censores. Lo peor que le podría suceder a un sistema anti-censura ampliamente extendido, con voluntarios de todo el mundo colaborando para mejorarlo y gente en China y en otros países censurados usando el software cada día para evitar la censura, es que los censores encuentren repentinamente un defecto que pueda minar y bloquear todo el sistema. Si los censores descubren una técnica para detectar el falso tráfico, no solamente puede el sistema quedar bloqueado y resultar obsoleto, sino que el tráfico se puede remontar hacia los usuarios individuales de los países censurados, pudiendo derivarse severas penas hacia ellos.

Es más, si el tráfico es detectable, los censores puede también remontarlo a los sitios fuera de su país que están colaborando a evitar la censura en Internet, y agregar esos sitios a una lista negra permanente. Incluso si esos sitios implementan más adelante una versión más segura, más indetectable, del software, todavía permanecerán en ella, incluso puede quedarles vetada la posibilidad de mudarse a una nueva localización para evitar la mencionada lista.

Así pues es una alta prioridad el pensar en posibles ataques contra un sistema antes de que este se despliegue. Esta página es una colección de los ataques, debilidades, y errores comunes que deben ser evitados. >de *List of possible weaknesses in systems to circumvent Internet censorship by Bennett Haselton*

contexto relacionado
>
respuesta a “List of Possible Weaknesses in Systems to Circumvent Internet Censorship" por Paul Baranowski. 11 de noviembre, 2002
> el proyecto free network: libertad de comunicación. 5 de noviembre, 2002
> la declaración del hacktivismo: afirmaciones de libertad en apoyo de una internet sin censura. 18 de julio, 2002
> CodeCon 2002: p2p y cripto-programación. 21 de febrero, 2002

 
 
 
martes :: 19 de noviembre de 2002
 
record mundial en transferencia de datos
:: desarrollando el concepto de grid

Unos físicos consiguieron recientemente un record mundial en transferencia de alta velocidad de disco a disco de datos de investigación. Los índices alcanzados fueron equivalentes a transferir todos los datos de una película entera en formato DVD de un lugar del mundo a otro en menos de 60 segundos, o bien un disco compacto completo en menos de ocho segundos. En el plazo de tres horas, los físicos movieron con éxito un TeraByte de datos de investigación – equivalente aproximadamente a 1.500 CDs de TRIUMF, el laboratorio de física de partículas en Vancouver, al CERN, el laboratorio internacional de física de partículas en Ginebra.

"Ahora estamos enfrentándonos con los problemas prácticos de establecer una grid computacional mundial para procesar las cantidades de datos sin precedentes que serán generadas por el experimento ATLAS cuando comience a funcionar en el 2007", declaró James Pinfold, que habla por el ATLAS Canadá, el equipo canadiense de una colaboración internacional de 2.000 físicos. El experimento ATLAS empleará el colisionador de partículas de más potente del mundo (el LHC) para explorar la naturaleza fundamental de la materia y de las fuerzas básicas que forman nuestro universo. "La única manera de ocuparse de tales cantidades de datos es utilizar una nueva clase de infraestructura informática - la GRID. La GRID es la World Wide Web del siglo XXI", dijo Pinfold. La GRID enlazará las computadoras, los superordenadores y los centros de almacenamiento alrededor del globo para crear una computadora mundial que hará posible que las cada vez mayores colaboraciones científicas internacionales compartan recursos a una escala gigantesca. Esto permite que los grupos globalmente distribuidos trabajen juntos en formas hasta ahora imposibles. La GRID "computadora del mundo" debe poder comunicar de modo fiable y rapidísimo la información entre sus nodos. >de *University of Alberta physicist helps transfer data at world record pace*, 13 de noviembre, 2002

contexto relacionado
>
cuarto de máquinas virtual de indiana: grid de supercomputadoras de tera-escala. 13 de junio, 2002
> mmg: plataforma de juegos masivo-multiusuario. 10 de mayo, 2002
> despliegue de la 'science grid': modelo emergente de computación. 3 de abril, 2002
> final del acelerador lep en el cern. anillo de colisiones de electrones y positrones. diciembre, 2000

> chronos, nuestro padre tiempo
lunes :: 18 de noviembre de 2002
 
 
> para cristal te quiero,
espejo nunca

¿materia espejo en el sistema solar?
:: candidata a materia oscura

La materia espejo – en inglés ‘mirror mater’ es una forma de materia completamente nueva que se supone ha de existir si la simetría especular es una simetría fundamental en la naturaleza. La materia espejo tiene el correcto abanico de características como para explicar la supuesta materia oscura del universo y podría también ser responsable de varios otros misterios de la física de las partículas, la astrofísica, la meteorología y las ciencias planetarias.

Las misteriosas ‘charcas’ azules y la escasez de cráteres pequeños encontrados en el asteroide Eros por la nave espacial NEAR Shoemaker se pueden explicar por la hipótesis de un cuerpo celeste constituido por materia espejo, según obert Foot y Saibal Mitra.

La materia espejo es candidata a ser la misteriosa materia oscura que se ha deducido que existe en las galaxias. Debe existir una cierta cantidad de materia espejo en nuestro Sistema Solar, quizás no bastante formar un cuerpo grande como un planeta, pero suficiente como para formar pequeños cuerpos celestes de la medida de asteroides. De hecho se estima que la masa total de asteroides en el cinturón de asteroides es solamente cercana al 0,05% de la masa de la Tierra. Un número similar, o aún mayor, de cuerpos espejo orbitando quizá en un plano diferente o incluso distribuido esféricamente, como la nube de Oort, es una posibilidad fascinadora.

¡Una posibilidad aún más notable es que los cometas mismos son los cuerpos celestes de materia espejo! Las observaciones realizadas por la nave espacial han revelado que los corazones de los cometas parecen estar compuestos de material extremadamente oscuro. ¿Podría este material oscuro ser la materia oscura? >de *Mirror matter in the solar system: New evidence for mirror matter from Eros de Robert Foot y Saibal Mitra* , 4 de noviembre, 2002 y *Mirror matter footprint on Eros?*

contexto relacionado
>
the seven wonders of the mirror world
> center for cosmological physics: probing phenomena beyond standard model. 13 de septiembre, 2001
> primer "mapa" de la materia oscura. 7 de marzo, 2000

 
 
 
jueves :: 14 de noviembre de 2002
 
el advenimiento de la medicina genómica
:: para tomar protagonismo en la medicina clínica

Los seres humanos saben desde hace milenios que la herencia afecta a la salud. Sin embargo, la contribución seminal de Mendel a la aclaración de los mecanismos por los cuales la herencia afecta al fenotipo ocurrió hace menos de 150 años, y Garrod comenzó a aplicar este conocimiento a la salud humana a principios del último siglo. Durante la mayor parte del siglo XX muchos médicos veían la genética como una especialidad académica esotérica; ahora esa visión resulta peligrosamente anticuada.

A excepción de los gemelos univitelinos, el genoma de cada persona es único. Todos los médicos necesitarán pronto entender el concepto de variabilidad genética, sus interacciones con el ambiente y sus implicaciones para el cuidado del paciente. Con la secuencia del genoma humano a sólo algunos meses de su solución, la práctica de la medicina ha entrado en una era en la cual el genoma del paciente individual ayudará a determinar el acercamiento óptimo al cuidado, tanto si es preventivo, de diagnóstico o terapéutico. La genómica, que ha emergido rápidamente como la ciencia básica central de la investigación biomédica, se prepara para tomar también protagonismo en la medicina clínica. >de "Genomic Medicine. A Primer" por Alan E. Guttmacher, M.D., y Francis S. Collins, M.D., Ph.D. The New England Journal of Medicine. Volumen 347:1512-1520. 7 de noviembre, 2002 número 19

contexto relacionado
>
nhgri launches genome.gov. 24 de junio, 2002
> ethical dilemmas of human genome. 23 de mayo, 2002
> gene(sis): el arte contemporáneo explora la genómica humana. 5 de abril, 2002
> borrador del genoma humano. 26 junio, 2000

> medicina; ¿qué medicina?
miércoles :: 13 de noviembre de 2002
 
 
> nuevas refinerías ?
energía para el planeta invernadero
:: hacia un nuevo sistema energético global

En un esfuerzo para estabilizar el clima y retrasar el calentamiento global, un equipo de investigadores internacionales ha evaluado una serie de nuevas fuentes primarias de energía que o bien no emiten o bien limitan la cantidad de bióxido de carbono lanzado a la atmósfera.

Los posibles candidatos a fuentes primarias de energía incluyen la energía terrestre, solar y eólica; además de satélites de energía solar; biomasa; fisión nuclear; fusión nuclear; híbridos fisión-fusión y combustibles fósiles de los cuales se haya eliminado el carbono.

"La reducción de emisiones de bióxido de carbono requerirá un cambio importante en cómo producimos, distribuimos, almacenamos y utilizamos nuestra energía", ha dicho Caldeira, un autor del documento titulado "Trayectorias de tecnología avanzada a la estabilidad global del clima: Energía para un planeta invernadero". Martin I. Hoffert ha sido el autor principal del informe.

"Lo qué nuestra investigación demuestra claramente es que la innovación científica puede invertir esta tendencia solamente si adoptamos una estrategia agresiva y global para desarrollar fuentes alternativas de energía que puedan producir hasta tres veces la cantidad que utilizamos hoy en día", declaró Hoffert. "Actualmente, estas tecnologías simplemente no existen - ni operativamente ni como proyectos experimentales".

Tecnologías no primarias de energía que podrían contribuir a la estabilidad del clima y retrasar el calentamiento global incluyen mejoras de conservación, de eficacia, producción del hidrógeno, almacenamiento y transporte, grids eléctricas globales superconductores y geoingeniería.

El informe concluye: "Combatir el calentamiento global mediante la reestructuración radical del sistema energético global podría ser el desafío tecnológico del siglo". >de *International Researchers Propose Advanced Energy Technologies To Help Quell Global Warming* 31 de octubre, 2002

contexto relacionado
>
emerging link between freak weather, climate change. 30 de agosto, 2002
> la tierra 'caducará en el 2050': living planet report. 12 de julio, 2002
> calentamiento global: informe climático 2002. 12 de junio, 2002

 
 
 
martes :: 12 de noviembre de 2002
 
microchip
:: impacto ambiental

Los microchips pueden ser muy pequeños, pero su impacto en nuestro mundo ha sido enorme. Y este impacto va más allá de los efectos obvios del e-mail, los teléfonos móviles y las agendas electrónicas: Un nuevo estudio demuestra que el 'peso ambiental' de los microchips excede de lejos su pequeño tamaño. Los científicos han calculado que producir un solo chip de dos gramos - la minúscula lámina utilizada para la memoria de los ordenadores personales - requiere por lo menos 1.7 kilogramos de combustible fósil e ingredientes químicos.

"El público debe saber que la tecnología no es gratis; la huella ambiental del dispositivo es mucho más sustancial de lo que su pequeño tamaño físico sugeriría", dice el Dr. Eric Williams, de la Universidad de las Naciones Unidas en Tokio, Japón. Williams es el principal autor del documento y dirige un proyecto que investiga las implicaciones ambientales de la revolución de la Tecnología de la Información.

Los resultados tienen implicaciones cruciales para la discusión sobre la desmaterialización – la concepción de que el progreso tecnológico debe conducir a reducciones radicales en la cantidad de materiales y de energía requeridos para producir mercancías. El microchip se ve a menudo como el ejemplo típico del desmaterialización debido a su alto valor y pequeño tamaño, pero los nuevos resultados sugieren que éste pudiera no ser el caso. >de *The three-and-a-half pound microchip: Environmental implications of the IT revolution* 5 de noviembre, 2002

contexto relacionado
>
e-basura: pesadilla de la era cibernética. 5 de marzo, 2002

> 1.7 kg de peso
lunes :: 11 de noviembre de 2002
 
 
> pergamino topkapi:
geometría y ornamento en la arquitectura islámica
genes, neuronas, internet
:: principios organizativos de las redes

¿Cómo trabajan juntos 30.000 genes de nuestro ADN para conformar una gran parte de lo que somos? ¿Cómo funcionan cien mil millones de neuronas en nuestro cerebro? El enorme número de factores implicados hace que tales redes complejas resulten difíciles de craquear. Ahora, un estudio descubre una estrategia para encontrar los principios organizativos de virtualmente cualquier red - de las redes nerviosas a las redes ecológicas de alimentación o a Internet. Un equipo dirigido por el Dr. Uri Alon del Instituto Weizmann ha encontrado varios de esos patrones de organización - que llaman los 'motivos de la red' - en el sustrato de redes genéticas, nerviosas, tecnológicas y alimentarias.

Alon conjeturó que los patrones que servían a una función importante de la naturaleza pudieran repetirse más a menudo que en redes seleccionadas al azar. Con esto en mente, ideó un algoritmo que le permitió analizar abundantes resultados científicos que examinaban las redes dominantes en algunos organismos bien conocidos. Alon notó que algunos patrones en estas redes eran inexplicablemente más repetitivos de lo que serían en redes seleccionadas al azar. Este puñado de patrones fue seleccionado como paquete potencial de motivos de red.

Asombrosamente, el equipo encontró dos motivos idénticos en sistemas genéticos y nerviosos. 'Ambos sistemas de proceso de información emplean al parecer estrategias similares', dice Alon. 'Los motivos compartidos por las redes nerviosas y genéticas pueden servir para filtrar ruido o para permitir la activación compleja de neuronas o de genes'. Exponer el 'cableado' de tales redes puede así ayudar a científicos a clasificar los sistemas genéricamente (del mismo modo que los leones y los ratones pertenecen ambos a la misma 'clase', los sistemas nerviosos y genéticos podrían ser clasificados en la misma categoría genérica si tienen muchos motivos en común). >de *Genes, Neurons, and The Internet Found to Have Organizing Principles – Some Identical*

contexto relacionado
>
piensa las redes: la nueva ciencia de redes think networks. 6 de junio, 2002

 
 
 
jueves :: 7 de noviembre de 2002
 
proyecto rosetta
:: el linux de la lingüistica

Se predice que del cincuenta al noventa por ciento de los idiomas del mundo habrán desaparecido en el siglo próximo, muchos con escasa o nula documentación significativa. Como parte del esfuerzo para asegurar esta herencia crítica de la diversidad lingüística, la Long Now Foundation está creando una amplia encuesta on-line y un archivo físico permanente de casi 1.000 de las aproximadamente 7.000 lenguas del planeta.

El proyecto está desarrollando este amplio archivo de la lengua con una contribución abierta, modelo de revisión entre pares similar al procedimiento que creó el Oxford English Dictionary original. Su meta es un "Linux de la lingüística" de código abierto - un esfuerzo de erudición colaborativa on-line derivada de la experiencia y las contribuciones de millares de especialistas académicos y practicantes nativos de todo el mundo.

Al final, se espera crear una nueva Piedra de Rosetta global, así como el imaginativo poder de tener un archivo de 1.000 idiomas concentrado en un único, estético, sugestivo objeto ayudará a llamar la atención sobre la tragedia de la extinción de la lengua así como a acelerar el trabajo para preservar lo que aun tenemos de esta manifestación crítica del intelecto humano. >del sitio web *Rosetta Project*

contexto relacionado
>
el léxico mundial: enlazando diccionarios y redes semánticas, 28 de junio, 2002

> discos-almacen del lenguaje visual
miércoles :: 6 de noviembre de 2002
 
 
> texturas de flujos
flow
:: el desafío de diseño de la computación ubicua

¿Qué sucede a la sociedad cuando hay centenares de microchips por cada hombre, mujer y niño del planeta - la mayoría de ellos (los chips) comunicándose entre ellos? ¿Cuáles son las implicaciones de un mundo lleno de sensores y activadores? ¿Qué aspecto tiene 'el mundo como hoja de cálculo'? ¿Qué significará estar 'conectado permanentemente' en una economía en tiempo real? Algunos de los diseñadores, pensadores y emprendedores con visión más profunda del mundo tratarán estas preguntas en Doors of Perception 7 en Amsterdam del 14 al 16 de noviembre de 2002. El tema de la celebrada reunión internacional es Flow (flujo): el desafío de diseño de la computación ubicua.

Doors of Perception (Doors) es un congreso internacional que ayuda a configurar la agenda del diseño orientado las tecnologías de la información y la comunicación. Doors reúne a innovadores, emprendedores, educadores y diseñadores que necesitan imaginar los futuros alternativos - los sostenibles - y los pasos necesarios para diseñarlo. Nuestros productos son una mejor comprensión del proceso del diseño; panoramas para los servicios que resuelven necesidades emergentes de nuevas maneras; y nuevas conexiones y capacidades entre gente innovadora y organizaciones. Se han organizado siete congresos desde 1993. >de *Doors of Perception 7*, 28 de octubre, 2002

contexto relacionado
>
UbiComp 2002, fourth international conference on ubiquitous computing. 1 de octubre, 2002
> international conference on pervasive computing. august 26-28, 2002
> (re)distributions :: cultura de la ubicuidad. 15 de julio, 2002

 
 
 
martes :: 5 de noviembre de 2002
 
el proyecto free network
:: libertad de comunicación

Después de más de un año de desarrollo, diversas reescrituras de varias partes del código y dramáticas mejoras en cada aspecto operativo, la nueva versión estable de Freenet - el primer lanzamiento en más de 14 meses- está finalmente lista.

Freenet es un software libre diseñado para asegurar la verdadera libertad de comunicación en Internet. Permite que cualquiera publique y lea información en absoluto anonimato. Nadie controla Freenet, ni siquiera sus creadores, lo que significa que el sistema no es vulnerable a manipulación o cierre.

Freenet es también eficiente en el modo en que maneja la información, replicando adaptivamente el contenido en respuesta a la demanda. Hemos sido y seguimos siendo pioneros en el desarrollo de innovadoras ideas tales como la aplicación del comportamiento emergente a la comunicación informática y de la criptografía de clave pública para crear asignaciones de nombres seguras.

El sistema proporciona una infraestructura flexible y de gran alcance capaz de soportar una amplia gama de usos, incluyendo: difusión incensurable de información polémica - Freenet protege la libertad de expresión permitiendo la publicación anónima e incensurable de material que se extiende del periodismo alternativo de base a textos vetados como las revelaciones de Peter (Spycatcher) Wright y de David Shayler sobre el MI5 -, distribución eficiente de contenido de banda ancha - el mirroring y cacheado adaptivo de Freenet se está utilizando para distribuir actualizaciones de software de Debian Linux y para combatir el efecto Slashdot -, publicación personal universal - Freenet permite a cualquier persona tener un sitio web, sin restricciones de espacio o publicidad obligatoria, incluso si no se posee un ordenador-. >de *Freenet 0.5 released*, 28 de octubre, 2002

contexto relacionado
>
fase de prueba de freenet. 18 de febrero, 2000

> construyendo una red
lunes :: 4 de noviembre de 2002
 
 
> con-tacto virtual?
primer con-tacto trasatlántico
:: tacto en realidad virtual

En un singular acontecimiento que recuerda el estribillo de una canción de Paul McCartney, los investigadores del MIT y del University College de Londres han unido sus 'manos a través del agua' en el primer con-tacto trasatlántico, literalmente 'sintiendo' las manipulaciones del otro sobre una pequeña caja en la pantalla de un ordenador. Los investigadores del MIT proporcionaron los conocimientos hápticos (sobre percepción táctil de la piel) y el equipo del UCL cubrió el desarrollo de software e implementación en red.

Las posibles aplicaciones abundan. "Además de sonido y visión, los programas de realidad virtual podrían incluir también tacto", dijo Mandayam A. Srinivasan, director del Laboratorio del Tacto del Massachussets Institute of Technology y líder del equipo del MIT en el experimento.

El experimento de tacto a distancia implica a una computadora y a un pequeño brazo robótico que toma el lugar del ratón. Un usuario puede manipular el brazo agarrando su extremo, que se asemeja a una gruesa aguja. El sistema en conjunto crea la sensación del tacto ejerciendo una fuerza controlada con precisión sobre los dedos del usuario. En la pantalla de la computadora, cada usuario ve un cuarto tridimensional. Dentro de ese lugar hay una caja negra y dos minúsculos indicadores cuadrados que muestran a los usuarios donde se encuentran en el cuarto. Entonces utilizan los brazos robóticos para levantar la caja entre los dos. Aquí es dónde entra en juego el tacto. Cuando un usuario en el MIT mueve el brazo -y por lo tanto el indicador- para tocar la caja, él puede 'sentir' la caja, que tiene textura del goma dura. El usuario en Londres hace lo mismo. Juntos intentan levantar la caja -uno aplicando la fuerza por la izquierda, otro por la derecha- y sostenerla tanto como sea posible. Todo el tiempo cada usuario puede sentir las otras manipulaciones de la caja. >de *MIT and London team report first transatlantic touch*, 28 de octubre, 2002

contexto relacionado
>
reach out and touch molecules (about a haptic device). 16 de julio, 2002
> researchers discover molecule that detects touch. 26 de octubre, 2000
> mit touch lab research explores how the hand works. 18 de marzo, 1999

> archivo weblog context

anota tu e-mail y te avisamos de las actualizaciones

:: suscribete

noviembre 02
octubre 02
julio 02
junio 02
mayo 02
abril 02
marzo 02
febrero 02
enero 02
cuentatrás 02
diciembre 01
noviembre 01
octubre 01
october 01
september 01
august 01

mas noticias 00-01
>>> archivo

agradecemos todo comentario a
context@straddle3.net

 

Google


archivos context toda la Red
  La participación social activa e informada es clave para conformar la sociedad de las redes. Para ello se necesita de una Esfera Pública innovadora - declaración de seattle
| casa | mapa sitio | acerca context | lang >>> english - català |
 
02
http://straddle3.net/context/02/blog_0211.es.html