lunes, 19 de octubre de 2015

La sociedad del Conocimiento.



La aldea global

El numero de usuarios de Internet ha aumentado constantemente, proporcionando acceso a porciones enteras de la poblacion a el intercambio de conocimientos, valores, costumbres, creencias y cultura con seres humanos de distintos países.
Una característica del mundo actual es la tendencia a la globalización... Se trata de un proceso que se impone debido a la mayor comunicación entre las diversas partes del mundo, llevando prácticamente a la superación de las distancias, con efectos evidentes en campos muy diversos.
La inequidad en el acceso a este tipo de informacion, ha generado exclusion de ciertos sectores poblacionales, relacionado con su nivel socioeconómico.
En otros casos, el choque cultural ha provocado la pérdida del sentido de la realidad que representa la relativización de la propia cultura al compararla con otras culturas que en ocasiones tienen valores opuestos.
No obstante, como deciamos al iniciar este ensayo, la proporción que ocupan los servicios de internet y las tecnologías relacionadas en la economía mundial, en la educación y en general en todas las expresiones de la vida de las naciones es cada vez más grande. Influyendo poderosamente en la economía y en las decisiones económicas.

Imagen: penetracion del internet por paises.

La sociedad del Conocimiento.

En un caso tras otro, el movimiento hacia la computarización y la digitización significa que muchas formas culturales de repente se han licuado, perdiendo su forma anterior mientras se las modifica para su expresión computarizada. A medida que las nuevas formas se solidifican, tanto los artefactos como la textura de las relaciones humanas que los rodea resultan muy a menudo ser diferentes de todo lo preexistente. Este proceso se convierte en un vasto y permanente experimento, cuyas ramificaciones a largo plazo nadie comprende en plenitud.

La noción sociedad de conocimiento tiene sus orígenes en los años 1960 cuando se analizaron los cambios en las sociedades industriales y se acuñó la noción de la sociedad post-industrial. Así, por ejemplo, el sociólogo Peter F. Drucker pronosticó la emergencia de una nueva capa social de trabajadores de conocimiento (P.F. Drucker 1959) y la tendencia hacia una sociedad de conocimiento (Drucker 1969). Este tipo de sociedad está caracterizada por una estructura económica y social, en la que el conocimiento ha sustituido al trabajo, a las materias primas y al capital como fuente más importante de la productividad, crecimiento y desigualdades sociales (véase Drucker 1994).
Sin embargo, más conocido es el trabajo de D. Bell (1973; 2001) sobre la sociedad post-industrial. Este concepto expresó la transición de una economía que produce productos a una economía basada en servicios y cuya estructura profesional está marcada por la preferencia a una clase de profesionales técnicamente cualificados. El conocimiento teórico se ha convertido, según este enfoque, en la fuente principal de innovación y el punto de partida de los programas políticos y sociales. Este tipo de sociedad está orientado hacía el progreso tecnológico y la evaluación de la tecnología y se caracteriza por la creación de una nueva tecnología intelectual como base de los procesos de decisión.
En esta época, hasta el final de los años 1970, el análisis de los cambios en la sociedad moderna resaltó tres aspectos:
-La expansión de las actividades de investigación estatales y privadas era la base principal de la cientificación de una serie de sectores industriales. En esta diagnosis se reflejó la expansión histórica de los gastos en I+D que se habían producido en la post-guerra.
-Paralelamente a la expansión de los sectores de servicios, se incrementaron las actividades económicas basadas en el conocimiento.
Con la importancia creciente del conocimiento teórico creció también el peso económico de las actividades basadas en el conocimiento.
-La estructura profesional estaba marcada por los trabajadores de conocimiento profesionalizado y con una cualificación académica: Bell (2001) estimó que alrededor de una cuarta parte de la población pertenecía a esta nueva clase de conocimiento, en la que se incluyó a los empleados con un diploma universitario o de unа escuela superior, a los empleados y los funcionarios de altas categorías y a los empresarios.
Estos análisis apuntaron, por lo tanto, a una sociedad cientificada, academizada y centrada en los servicios diferenciada de la sociedad industrial que, a su vez, estaba caracterizada por el conocimiento experimental, el predominio de los sectores industriales, las actividades manuales y el conflicto entre capital y trabajo.
El concepto de ‘sociedad del conocimiento’ hace referencia, por lo tanto, a cambios en las áreas tecnológicas y económicas estrechamente relacionadas con las Tecnologias de Informacion y Conocimiento , en el ámbito de planificación de la educación y formación, en el ámbito de la organización (gestión de conocimiento) y del trabajo (trabajo de conocimiento).
El conocimiento será cada vez más la base de los procesos sociales en diversos ámbitos funcionales de las sociedades. Crece la importancia del conocimiento como recurso económico, lo que conlleva la necesidad de aprender a lo largo de toda la vida. Pero igualmente crece la conciencia del no-saber y la conciencia de los riesgos de la sociedad moderna.
El concepto de la ‘sociedad del conocimiento’ llama la atención sobre el hecho de que los procesos socio-económicos cobran una nueva calidad porque el conocimiento se convierte en el factor de producción más importante. En este sentido, se está hablando de un nuevo modo de producción, dado que el capitalismo sigue siendo el principio dominante del sistema económico actual[11] y no se oculta el riesgo de que aparezcan nuevas formas de exclusión social relacionadas con el conocimiento. Sin embargo, el término usado como visión política parece que promete una sociedad más equilibrada y más justa en que cada uno puede esperar que en el futuro vaya a recibir más, siempre y cuando realice los esfuerzos necesarios.[12] En este sentido, se trata de una proyección al futuro del objetivo de reducir las injusticias sociales (véase Castel 2000. p. 326). Los riesgos de exclusión social en la sociedad del conocimiento están relacionados con el acceso a la información y al conocimiento, y con los efectos de la globalización socioeconómica.

Karsten Krüger
Dr. en Sociología
Dep. de Geografía Humana
Universidad de Barcelona
EL CONCEPTO DE 'SOCIEDAD DEL CONOCIMIENTO'

5. El internet y la era de la informacion


5. El internet y la era de la informacion

El ciberespacio.
Internet tuvo un origen militar que data del 1969, cuando la Agencia de Proyectos para Investigación Avanzada (Advanced Research Projects Agency – ARPA) del Departamento de Defensa de los Estados Unidos conectó cuatro sistemas de cómputos geográficamente distantes en una red que se conoció como ARPAnet.

Pero, si bien la idea original estaba intrínsecamente ligada a la seguridad militar, su evolución e implementación tuvieron lugar alrededor del mundo académico. La misma red en experimentación sirvió para conectar a los científicos desarrollándola y ayudarlos a compartir opiniones, colaborar en el trabajo y aplicarla para fines prácticos. Pronto, ARPAnet conectaría todas las agencias y proyectos del Departamento de Defensa de los E.U.A. y para 1972 se habían integrado ya 50 universidades y centros de investigación diseminados en los Estados Unidos.

Eventualmente la Fundación Nacional de Ciencia (National Science Foundation en inglés ó NSF), entidad gubernamental de los Estados Unidos para el desarrollo de la ciencia se hizo cargo de la red, conectando las redes que luego darían lugar a la red de redes que hoy llamamos Internet.

La World Wide Web fue inventada en 1989 por un informático del CERN (Organización Europea de Investigación Nuclear) llamado Tim Berners-Lee. Era un sistema de hipertexto para compartir información basado en Internet, concebido originalmente para servir como herramienta de comunicación entre los científicos nucleares del CERN. Tim Berners-Lee había estado experimentando con hipertexto desde 1980, año en que programó Enquire, un programa para almacenar piezas de información y enlazarlas entre ellas. Enquire se ejecutaba en un entorno multiusuario y permitía acceder a varias personas a los mismos datos. Tim Berners-Lee entregó su propuesta al CERN en 1989, en septiembre de 1990 recibió el visto bueno y junto con Robert Cailliau comenzó a escribir el nuevo sistema de hipertexto. A finales de 1990 el primer browser de la historia, WorldWide Web, ya tenía forma.

Los documentos necesitaban un formato que fuera adecuado para su misión. En aquella época casi todo el mundo utilizaba TeX y PostScript, pero éstos eran demasiado complicados teniendo en cuenta que debían ser leídos por todo tipo de computadoras, desde la terminales tontas hasta las estaciones de trabajo gráficas X-Windows. Así, tanto el lenguaje de intercambio (HTML), como el protocolo de red (HTTP) se diseñaron para ser realmente muy simples.

HTML son las siglas de "HyperText Mark-up Language". "Mark-up" es un término de imprenta que significa el conjunto de instrucciones estilísticas detalladas escritas en un manuscrito que debe ser tipografiado. Así, HTML podría ser traducido como "Lenguaje de Formato de Documentos para Hipertexto". HTML es una aplicación de SGML, un lenguaje muy general para definir lenguajes de formato de documentos.

A principios de 1993 había alrededor de 50 servidores. Existían básicamente dos tipos de browsers: el original, gráfico, pero sólo para plataformas NeXT, y el browser en modo de línea, preparado para cualquier plataforma pero muy limitado y muy poco atractivo. En Febrero se lanzó la primera versión alfa del navegador "Mosaic for X", desarrollado en el NCSA (National Center for Supercomputing Applications). Funcionaba en X Windows, que era una plataforma popular entre la comunidad científica. En Abril el tráfico de la WWW era el 0,1% del total de Internet. El CERN declaraba la WWW como tecnología de acceso gratuito. En septiembre ya había versiones de Mosaic para PC y Macintosh. El tráfico alcanzaba el 1% de todo el tráfico de Internet y había más de 500 servidores. Es el comienzo del crecimiento explosivo de la Web. A finales del 94 ya había más de 10.000 servidores y 10 millones de usuarios. En 1997, más de 650.000 servidores. Y en 2012 habia más de 25 millones.

El advenimiento del microcosmos


Название книги: Microcosm The Quantum Revolution In Economics And Technology . Pagina 30
Автор: Gilder, George -
Ключевые слова: Filosofia Ensayo
The “informativeness” of subatomic matter is the key to modem electronics. Because the world of the microcosm consists not of inert and opaque solids but of vibrant, complex, and comprehensible fields, it constitutes a useful arena for modern information technology. It is because there is so much analogical information in the microcosm that the microcosm is a uniquely powerful medium for information.The quantum-regulated movement of electrons across quantum-mapped crystalline paths epitomizes information technology, and in-formation technology epitomizes the quantum era.

In the atom of information, this era acquires its definitive symbol. What was once a blank solid is now revealed in part as information, what was once an inert particle now shines with patterns and probabilities, what was once opaque and concrete is now a transparent tracery of physical laws. Far from plunging reality into clouds, quantum theory makes the universe radically more intelligible. The new science does not estrange human beings from their environment. Since thought is the most distinctly human power, the quantum world is actually more anthropomorphic than the world of Newtonian masses and forces.

A more intelligible universe, penetrable by the human mind, endows people with greater power to create wealth. But it also radically changes the way wealth is created. Throughout previous human history, the creation of wealth depended chiefly upon the extraction, transport, combination, and modification of heavy materials against the resistance of gravity, the constraints of entropy, and the constrictions of time and space. When things are large and approached out-side-in, it is expensive to move and manipulate them. Their costs derive from the weight, rarity, entropy, and resistance of their matter. But small things, virtually devoid of matter, move less like weights than like thoughts. In the microcosm, the costs of fuel and materials decline drastically; the expense devolves from matter to mind. Just as quantum science overthrew Newtonian matter in the explanation of the universe, the quantum economy overthrows Newtonian matter in the creation of new wealth.

Moore's law.


When G. Moore made his prediction, the number of transistors in a single chip was roughly 32 and today there are approximately half a billion transistors integrated on a single microprocessor.
The April 19, 1965 Electronics magazine was the 35th anniversary issue of the publication. Located obscurely between an article on the future of consumer electronics by an executive at Motorola, and one on advances in space technologies by a NASA official is a less than four page (with graphics) article entitled, "Cramming more components onto integrated circuits," by Gordon E. Moore, Director, Research and Development Laboratories, Fairchild Semiconductor. Moore had been asked by Electronics to predict what was going to happen in the semiconductor components industry over the next 10 years -- to 1975. He speculated that by 1975 it was possible to squeeze as many as 65,000 components on a single silicon chip occupying an area of only about one-fourth a square inch. His reasoning was a log-linear relationship between device complexity (higher circuit density at reduced cost) and time: "The complexity for minimum component costs has increased at a rate of roughly a factor of two per year. Certainly over the short term this rate can be expected to continue, if not to increase. Over the longer term, the rate of increase is a bit more uncertain, although there is no reason to believe it will remain nearly constant for at least 10 years." (Moore 1965)
This was an empirical assertion, although surprisingly it was based on only three data points.
Officially, Moore's Law states that circuit density or capacity of semiconductors doubles every eighteen months or quadruples every three years. It even appears in mathematical form:
(Circuits per chip) = 2(year-1975)/1.5
In 1995 Moore compared the actual performance of two device categories (DRAMs and microprocessors) against his revised projection of 1975. Amazingly, both device types tracked the slope of the exponential curve fairly closely, with DRAMs consistently achieving higher densities than microprocessors over the 25 year period since the early-1970s. Die sizes had continued to increase while line widths had continued to decrease at exponential rates consistent with his 1975 analysis.

The scaling of MOSFETs, Moore’s law, and ITRS. http://userweb.eng.gla.ac.uk/fikru.adamu-lema/Chapter_02.pdf 19.10.2015.
 

miércoles, 14 de octubre de 2015

El primer microprocesador


El primer microprocesador


The planar process was a logical outgrowth of the diffusion and oxide masking process. Planarization was the creation of physicist Jean Hoerni of newly-formed Fairchild Semiconductor. Hoerni observed the production limitations of conventional 3-dimensional transistor designs (e.g., the "mesa" transistor). Hoerni reasoned that a design based on a "plain" would be superior. Thus, the planar transistor, as the name implies, was flat. Flattening the mesa enabled electrical connections to be made, not laboriously by hand, but by depositing an evaporated metal film on appropriate portions of the semiconductor wafer. Using a lithographic process of a series of etched and plated regions on a thin, flat surface or wafer of silicon, the "chip" was born out of the planar transistor. Like the printing process itself, the planar process allowed for significantly greater rates of production output at even higher yields.
More importantly, the planar process enabled the integration of circuits on a single substrate since electrical connections between circuits could be accomplished internal to the chip. Robert Noyce of Fairchild quickly recognized this. As Gordon Moore recalls:
"When we were patenting this [planar transistor] we recognized it was a significant change, and the patent attorney asked us if we really thought through all the ramifications of it. And we hadn't, so Noyce got a group together to see what they could come up with and right away he saw that this gave us a reason now you could run the metal up over the top without shorting out the junctions, so you could actually connect this one to the next-door neighbor or some other thing."
Fairchild introduced the first planar transistor in 1959 and the first planar IC in 1961. Moore views the 1959 innovation of the planar transistor as the origin of "Moore's Law."
Perhaps more than any other single process innovation, planarization set the industry on its historical exponential pace of progress. As one early industrial technologist noted, "The planar process is the key to the whole of semiconductor work." George Gilder's account in his 1989 treatise, Microcosm, is more eloquent:
"Known as the planar integrated circuit, Fairchild's concept comprised the essential device and process that dominates the industry today. . . Ultimately it moved the industry deep into the microcosm..."
Bob Schaller. The Origin, Nature, and Implications of "MOORE'S LAW" The Benchmark of Progress in Semiconductor Electronics. 1996. http://research.microsoft.com/en-us/um/people/gray/Moore_Law.html


En 1968, Robert Noyce decide abandonar la compañía Fairchild Semiconductor, para poder fundar en 1969, junto a Andrew Grove y Gordon Moore, la compañía Integrated Electronics, conocida como Intel.
En 1970, Intel consiguió almacenar cadenas de ceros y unos, desarrollando la primera memoria RAM.  En 1971, consiguen integrar la memoria RAM en la CPU, con lo que consiguen crear el primer ordenador comercial al alcance del consumidor, el Altair 8800. En 1971, nació el primer microprocesador, denominado 4004, compuesto por 4 chips desarrollados por Ted Hoff y otros 2 chips de memoria. Poco después, Intel comercializó el 8008. En 1981, Intel desarrolló los procesadores de 16 bits 8086 y los de 8 bits 8088. Estos procesadores permitieron a IBM, por primera vez, confeccionar el primer PC. En 1982, Intel desarrolló el 286 capaz de ofrecer compatibilidad con sus predecesores.

En 1985, llegó el 386, un microprocesador de 32 bits. Fue adoptado por Compaq para su computadora personal Compaq Deskpro 386. En 1989 la compañía desarrolló Intel 486 de 1,2 millones de transistores. En 1990, Noyce investigaba acerca de los microchips, hasta que el 3 de junio falleció tras un fallo cardíaco. Después de su muerte, la compañía Intel prosiguió desarrollando los microprocesadores a través de la línea Pentium, consiguiendo que la mayoría de computadoras tengan como cerebro, un Pentium o un Celeron. En el año 2000, Jack Kilby recibe el Premio Nobel de Física, conjuntamente con Robert Noyce, por su trabajo acerca de los microprocesadores



The exemplary technology of this era is the microchip—the computer inscribed on a tiny piece of processed material. More than any other invention, this device epitomizes the overthrow of matter. Consider a parable of the microchip once told by Gordon Moore, chairman of Intel and a founding father of Silicon Valley: “We needed a substrate for our chip. So we looked at the substrate of the earth itself. It was mostly sand. So we used that. “We needed a metal conductor for the wires and switches on the chip. We looked at all the metals in the earth and found alutninum was the most abundant. So we used that. “We needed an insulator and too saw that the silicon in sand mixed with the oxygen in the air to form silicon dioxide—a kind of glass. The perfect insulator to protect the chip. So we used that.” The result was a technology—metal oxide silicon (MOS), made from metal, sand, and air—in which materials costs are less than 1 percent of total expense. Combining millions of components on a single chip, operating in billionths of seconds, these devices transcend most of the previous constraints of matter. The most valuable substance in this, the fundamental product of the era, is the idea for the design.
The overthrow of matter in economics is made possible by the previous overthrow of matter in physics. All the cascading devaluations of matter in the global economy and society originate with the fundamental transfiguration of matter in quantum science. Max Planck, the discoverer of the quantum, offered the key when he asserted that the new science entailed a movement from the “visible and directly controllable to the invisible sphere, from the macrocosm to the microcosm.” The macrocosm may be defined as the visible domain of matter, seen from the outside and ruled by the laws of classical physics. The microcosm is the invisible domain, ruled and revealed by the laws of modem physics.

Microcosm The Quantum Revolution In Economics And Technology .  Pagina 18
Gilder, George

los circuitos integrados


Richard Feynman, considerado fundador de la nanotecnología, ya preveía las posibilidades en la miniaturización, manipulating and controlling things on a small scale en 1959.
Fue él (Feinmann) quien inspiro a investigadores y científicos hacia nuevos horizontes.

Why cannot we write the entire 24 volumes of the Encyclopedia Brittanica on the head of a pin?” enormous amounts of information can be carried in an exceedingly small space

I am telling you what could be done if the laws are what we think; we are not doing it simply because we haven’t yet gotten around to it.

I do know that computing machines are very large; they fill rooms. Why can’t we make them very small, make them of little wires, little elements—and by little, I mean little. For instance, the wires should be 10 or 100 atoms in diameter, and the circuits should be a few thousand angstroms across. Everybody who has analyzed the logical theory of computers has come to the conclusion that the possibilities of computers are very interesting—if they could be made to be more complicated by several orders of magnitude. If they had millions of times as many elements, they could make judgments. They would have time to calculate what is the best way to make the calculation that they are about to make. They could select the method of analysis which, from their experience, is better than the one that we would give to them. And in many other ways, they would have new qualitative features.
Yet there is no machine which, with that speed, can take a picture of a face and say even that it is a man; and much less that it is the same man that you showed it before—unless it is exactly the same picture. If the face is changed; if I am closer to the face; if I am further from the face; if the light changes—I recognize it anyway. Now, this little computer I carry in my head is easily able to do that. The computers that we build are not able to do that. The number of elements in this bone box of mine are enormously greater than the number of elements in our “wonderful” computers. But our mechanical computers are too big; the elements in this box are microscopic. I want to make some that are submicroscopic.
The information cannot go any faster than the speed of light—so, ultimately, when our computers get faster and faster and more and more elaborate, we will have to make them smaller and smaller.
But there is plenty of room to make them smaller.
There is nothing that I can see in the physical laws that says the computer elements cannot be made enormously smaller than they are now. In fact, there may be certain advantages.
When we get to the very, very small world—say circuits of seven atoms—we have a lot of new things that would happen that represent completely new opportunities for design. Atoms on a small scale behave like nothing on a large scale, for they satisfy the laws of quantum mechanics. So, as we go down and fiddle around with the atoms down there, we are working with different laws, and we can expect to do different things. We can manufacture in different ways. We can use, not just circuits, but some system involving the quantized energy levels, or the interactions of quantized spins, etc. Another thing we will notice is that, if we go down far enough, all of our devices can be mass produced so that they are absolutely perfect copies of one another.

Plenty of Room at the Bottom Richard P. Feynman (Dated: Dec. 1959)

Gilder, the quantum era


According to Gilder, the quantum era is still unfolding in a fourfold transformation of the world—in science, technology, business, politics—and even in philosophy. But all the changes converge in one epochal event: the overthrow of matter.
The change originates in the microcosm of quantum theory itself – which overthrew matter in the physical sciences.
At the foundation of the universe, Isaac Newton’s hard, inert, and indivisible solids gave way to a rich panoply of paradoxical sparks, comprising waves and particles that violate every principle of Newtonian solidity.
At the root of all the cascading changes of modern economic life—devaluing material resources in technology, business, and geopolitics—is this original overthrow of material solidity in the science of matter itself.
The second step in the overthrow of matter came in the use of quantum theory to overcome the material limits of weight, heat, and force in the creation of new machines. The industrial age essentially managed and manipulated matter from the outside, lifting it against gravity, moving it against friction, melting or burning it to change its form. The quantum era manipulates matter from the inside, adapting its inner structure to human purposes.
In the microchip, combining millions of components operating in billionths of seconds in a space the size of the wing of a fly, human beings built a machine that overcame all the conventional limits of mechanical time and space. Made essentially of the silicon in sand—one of the most common substances in earth—microchips find their value not in their substance but in their intellectual content: their design or software.
The third great manifestation of the overthrow of matter is the impact of this technology on the world of business. By overcoming the constraints of material resources, the microchip has devalued most large accumulations of physical capital and made possible the launching of global economic enterprises by one entrepreneur at a workstation.
With the overthrow of the constraints of material scarcity, gravity, and friction, large bureaucracies in government and business lose their power over individual creators and entrepreneurs.
The fourth phase of the overthrow of matter is the collapse of the value of natural resources and territory in determining the distribution of power among nations. The microcosms of science, technology, and enterprise have converged in a global quantum economy that transcends all the usual measures of national power and wealth.

martes, 13 de octubre de 2015

El transistor (bardeen y los colaboradores en el premio nobel)


El transistor (bardeen y los colaboradores en el premio nobel)
En el centro de todo esta el electron.
Most interested people understand much of what electrons do. But very few have any clear idea of what an electron actually is, or its implications for the concept of matter and its overthrow in the world economy.
From the telephone to the human brain, from the television set to the computer, information mostly flows in the form of electrons. This function of electrons has quantum roots. As in Planck’s black body radiation, electrons do not respond to applied energy in a continuous, proportional, or linear way. They are non-linear; they have quantum thresholds and resonances. These quantum functions shape their electrical properties. In order to move through a solid, electrons must be freed from their atoms, jumping from one energy state to a free state across measurable energy “band gaps” in strict accordance with quantum rules. These rules give electrons identifiable and controllable features that can be used to convey information.
With controlled pulses of electrons down wires, computers could be interconnected around the world. With controlled flows of electrons in and out of tiny capacitors, computer memories could be constantly read, written, and restored.
Crossing decisively into the microcosm, Heisenberg declared that the waves which Bohr had examined in recreating the atom were not conventional waves at all. Designated “probability amplitudes,” they were waves or fields that defined the statistical likelihood of finding an electron at any particular location. This was a climactic step in the overthrow of materialism in physics. With the electron itself depicted as a wave and the wave depicted as a probability field, the specific particle in this theory had disappeared into a cloud. With it disappeared the last shreds of Newtonian logic and mechanistic solidity.
As Bohr put it, quantum theory required “a final renunciation of the classical idea of causality and a radical revision of our attitude toward the problem of physical reality.”
Microcosm The Quantum Revolution In Economics And Technology .  Pagina 25
Los encargados de aplicar en forma práctica la teoría cuántica, fueron los inventores del transistor en 1948, lo cual significó un hito en la historia del desarrollo de las tecnologias de información.
John Bardeen (1908-1991), William B. Shockley (1910-1989), and Walter H. Brattain (1902-1987)
Bardeen en su Nobel Lecture de 1947 establece que en la raiz de toda la investigacion que condujo al desarrollo del primer transistor estuvo la Wilson’s quantum mechanical theory, based on the energy band model, and describing conduction in terms of excess electrons and holes. It is fundamental to all subsequent developments. The theory shows how the concentration of carriers depends on the temperature and on impurities.

JO H N BA R D E E N Semiconductor research leading to the point contact transistor
Nobel Lecture, December 11, 1956

Del mecanicismo causistico a lo probabilistico


Del mecanicismo causistico a lo probabilistico

Today most sophisticated people imagine that they have transcended Newton and have come to terms with the findings of modern science. But they have not. As an intellectual faith, materialist logic still prevails.
We still believe that the solid world we see and feel—governed by determinate chains of cause and effect, rooted in Newtonian masses and forces—is real and in some sense definitive. The atom may not be ultimate, but they assume some other particle is, perhaps the quark.
At the foundations of the physical world, so it is supposed, are physical solids—”building blocks”—that resemble in some way the solids we see. They link together in causal chains of mechanical logic like a set of cogs and levers. These solids are deemed to comprise all matter, from atoms and billiard balls to bricks and the human brain.
Announced in 1913 and proved for the single electron of the hydrogen atom, the Bohr model was the first great vindication of quantum theory. One test of scientific advance is whether it extends the realms of human understanding and control.
The established physics could not explain the effectiveness of chemistry, let alone extend it to atoms. Unlike a solar system, atoms do not exist in majestic isolation. Ceaselessly in movement, they endlessly jiggle together in what is called Brownian motion. We even step on them. In a world of Newtonian continuities, electron orbits would vary continually as atoms collided with one another. Constantly knocked loose in these collisions, electrons in a conductor should flow far more copiously and respond to heat more massively than experiments showed.
Reunifying chemistry and physics in the microcosm, the new model of the atom explained the apparent solidity of the physical world. Establishing a gap, called a band gap, between an electron in its ground state and an electron excited to a higher energy level, the new physics showed why the constant collisions of atoms do not cause the atomic structure to collapse. A small collision will not affect an atom. An electron will not respond to any small disturbance. It will react only if it receives its necessary quantum of energy, defined by its resonant frequency times Planck’s constant.

Microcosm The Quantum Revolution In Economics And Technology .  Pagina 21

lunes, 12 de octubre de 2015

Heisenberg y los observables


Heisenberg y los observables

Generalmente es reconocido el hecho de que el papel publicado en julio de 1925 por Werner Heisenberg es el que di fin a la “Teora Cuntica Vieja”, y que con la exposicin de su Mecnica Matricial se di entrada a la Mecnica Cuntica tal como se conoce y se practica en la actualidad.

Heisenber mismo, en su famoso articulo fundacional de la nueva mecánica cuántica, resaltaria el hecho de que “it is well known that the formal rules which are used in quantum theory for calculating observable quantities such as the energy of the hydrogen atom may be seriously criticzised on the grounds that they contain, as basic element, relationships between quantities that are apparently unobservable in principle, e.g., position and period of revolution of electron... Experience however shows that only the hydrogen atom and its Stark effect are amenable to treatment by these formal rules of quantum teory”.
Heisenberg también critica el principio de correspondencia: “It has become the practice to characterize this failure of the quantum-theoretical rules as a deviation from classical mechanics, since the rules themselves were essentially derived from classical mechanics.”
Y en concordancia con Husserl:
On doit s'accommoder du fait que ce n'est qu' travers le processus de connaissance lui-mme que se dcide ce qu'on doit entendre par "connaissance". [...] Toute formulation dans le langage est toujours, non seulement une saisie de la ralit, mais aussi une manire de la mettre en forme et de l'idaliser [...] La connaissance n'est sans doute en dernire instance rien d'autre que l'agencement non pas l'agencement de quelque chose qui serait dj disponible en tant qu'objet de notre conscience ou de notre perception, mais plutt l'agencement de quelque chose qui ne devient un veritable contenu de conscience ou un processus perceptif qu' travers cet agencement meme (Whm, 363-364)
"Philosophie. Le manuscrit de 1942"
Heisenberg, W. Philosophie. Le manuscrit de 1942. Introduction et traduction par C. Chevalley (490 p.). Editions du Seuil, 1998. Premire dition en allemand : Ordnung der Wirklichkeit, 1989. Seconde dition francaise : Arla, 2003, 2010 (173 p.)

da el paso fundamental que destraba el callejon sin salida a que habia llegado la mecanica cuantica.
In this situation it seems sensible to discard all hope of observing hitherto unobservable quantites, such as the position and period of electron, and to concede that the partial agreement of the quantum rules with experience is more or less fortuitous. Instead it seems more reasonable to try to establish a theoretical quantum mechanics, analogous to classical mechanics, but in which only relations between observable quantities occur.”
Dando a luz la mecánica matricial. Y abriendo una nueva dimension para la fisica.

Quantum-theoretical re-interpretation of kinematic and mechanical relations. W.Heisenberg




As hitherto defined, quantum mechanics enables the radiation
emitted by the atom, the energy values of the stationary states, and other
parameters characteristic for the stationary states to be treated. The theory
hence complies with the experimental data contained in atomic spectra. In all those cases, however, where a visual description is required of a transient event, e.g. When interpreting Wilson photographs, the formalism of the theory does not seem to allow an adequate representation of the experimental state of affairs. At this point Schrödinger’s wave mechanics, menawhile developed on the basis of the de Broglie’s theses, came to the assistance of quantum mechanics.
Tal como Heisenberg lo considera, el cambio de la mecánica clásica a la mecánica cuántica fue así:
In classical physics the aim of research was to investigate objective processes occurring in space and time, and to discover the laws governing their progress from the initial conditions. In classical physics a problem was considered solved when a particular phenomenon had been proved to occur objectively in space and time, and it have been shown to obey the general rules of classical physics as formulated by differential equations.
The manner in which the knowledge of each process had been acquired, what observations may possibly have led to its experimental determination, was completely immaterial, and it was also immaterial for the consequences of the classical theory, which possible observations were to verify the predicitions of the theory. In the quantum theory, however, the situation is completely different. The very fact that the formalism of quantum mechanics cannot be interpreted as visual description of a phenomenom occurring in space and time shows that quantum mechanics is in no way concerned with the objective determination of space - time phenomena. On the contrary, the formalism of quantum mechanics should be used in such a way that the probability for the outcome of a further experiment may be concluded from the determination of an experimental situation in an atomic system, providing that the system is subject to no perturbations other than those necessitated by performing the two experiments.

Nobel Lecture 1939 Heisenberg.

La catástrofe del átomo de Bohr.


La catastrofe del atomo de Bohr.

Bohr cuantizó las orbitas planetarias enunciando el principio, más fundamental de que el ímpetu angular del sistema es un múltiplo entero de la constante de Planck (entre 2p); pero, a pesar de su gran éxito en los átomos hidrogenoides, finalmente se debió concluir que esta cuantización es incorrecta.
En general, el modelo de Bohr:
  1. No explica de donde surge la relación mvr = nh/2p ; con lo cual sus resultados son asombrosamente congruentes con los hechos experimentales.
    2. Solo es aplicable para el átomo de hidrógeno, para átomos más complejos sus ecuaciones resultan insatisfactorias
    3. Cuando el espectro del átomo de sodio se examina con un espectroscopio de alta resolución, la línea original se descompone en dos, lo que no se explica en su teoría.
    4. La teoría de Bohr no explica por que cuando los espectros de emisión atómica se observan en presencia de un campo magnético surge una multiplicidad de líneas espectrales (efecto Zeeman).
    5. No explica porque algunas líneas espectrales son mas brillantes que otras.
    6. Existía una incoherencia lógica en su teoría , pues al lado de los principios fundamentales de la Física Clásica y el electromagnetismo, se introdujeron postulados nuevos (momento angular y condición de frecuencia) que entraban en contradicción con los principios de los cuales partía.

Las reglas de la cuantización (momento angular y condición de frecuencia) se añadierón a la Física Clásica sin ninguna liga lógica. Bohr mismo hizo un examen crítico de su teoría a fin de mostrar a los jóvenes físicos la necesidad de buscar los principios de la teoría de los fenómenos atómicos

Con el advenimiento de la mecánica ondulatoria de De Broglie y la ecuación de Schrodinger los estados dinámicos quedaron limitados automáticamente a la serie postulada por Bohr y sólo se abandona el concepto clásico del electrón "planetario".


QG-Mendeleiev, Genaro carmona.
Modelo atómico de Niels Bohr


lunes, 5 de octubre de 2015

El Principio de Correspondencia y Husserl




En fisica, los fenomenos macroscopicos se estudiaban con recursos infinitos, que en realidad eran promedios estadisticos. Sin embargo, en lo microscpico, lo que proporciona explicaciones cientificas es el procedimiento cuantico finito.
Como hemos visto, aplicar analisis continuos infinitos conduce, en el estudio de lo microscopico a catastrofes cientficas (gnoseolgicas).

La filosofia provee las claves de esas catastrofes. El infinito de la dominancia eidtica en la filosofa clsica anula los niveles de realidad, aplanndola y haciendo que las ciencias ms duras avasallen alas ciencias tenidas por ms dbiles, por ejemplo, que son las ciencias humanas.
Es entonces cuando aparece el potencial de ruptura de lo clsico de la fenomenologa.
La fenomenologa explora la realidad como una serie arquitectnica no natural que va desde el mundo vivido, con una universalidad tpica, no eidtica, hasta un nivel originario, estrictamente fenomenologico (refractario de toda eidtica) donde se generan las sntesis de sentido que son meras sntesis esquemticas. Ahora es la propia subjetividad la que resulta medida y estratificada en niveles.
Entonces el principio de correspondencia se generaliza, ya no ser la correspondencia entre lo clsico y lo cuntico. Ser la correspondencia entre la scala naturae, base originaria de la filosofia clsica (y del ideal cientfico reduccionista), y la escala fenomenolgica, que surge de la reduccin desde el nivel de la realidad humana y con niveles diferenciados atestables en su transposicin.
Ya no se intentar hacer corresponder lo clsico y lo post-clsico, sino enfrentar la escala natural y la escala fenomenolgica que confluyen en el vrtice comn de la realidad humana, ltimo escaln de la escala natural y primero de la reduccin.

El principio de correspondencia. Ricardo Sanchez Ortiz de Urbina.

Para lograrlo, Husserl propone la epoxe fenomenologica:
Εποχή Fenomenologica que es “poner entre parntesis este mundo natural entero, que esta constantemente “para nosotros ahi delante”, y que seguira estndolo permanentemente, como “realidad” de que tenemos conciencia, aunque nos de por colocarlo entre parentesis.
No niego “este mundo” como si fuera un sofista,  ni dudo de su existencia, como si fuera un esptico, sino que practico la epoxe “fenomenologica” que me cierrra completamente todo juicio sobre existencias en el espacio y en el tiempo.
Desconecto todas las ciencias referentes a este mundo natural, por slidas que me parezcan.
Desde el momento en que le inflijo el parentesis, no puedo hacer ms que afrontar la existencia tal como es.
Lo que nosotros pedimos se encuentra en otra direccion. El mundo entero, puesto en la actitud natural, con que nos encontramos realmente en la experiencia, tomado plenamente “libre de teorias”, tal como se tiene real experiencia de l, como consta claramente en la concatenacion de las experiencias no vale para nosotros ahora nada; sin ponerlo a prueba, pero tambien sin discutirlo, debe quedar colocado entre parentesis.
De igual modo deben sucumbir al mismo destino todas las teorias y ciencias que se refieren a este mundo, por estimables que sean y esten fundadas a la manera positivista o de cualquier otra.
Ideas relativas a una fenomenologia pura y una filosofia fenomenologica.
pagina 73-74

En el método de la física es la cosa percibida misma, siempre y por principio, exactamente la cosa que el físico investiga y determina científicamente.
La cosa que el fisico observa, con la que experimenta, que esta viendo constantemente, toma en la mano, pone en la balanza, mete en el horno, esta cosa y no otra es la que se convierte en sujeto de los predicados fisicos, como son el peso, la masa, la temperatura, la resistencia electrica, etc.
Igualmente son los procesos y relaciones percibidos mismos los determinados por medio de conceptos como fuerza, aceleración, energía, átomo, ión, etc.
La cosa que aparece sensiblemente, la cosa que tiene las formas, colores, y cualidades olfativas y gustativas sensibles, es, pues, todo menos un signo de otra, sino en cierta medida un signo de si misma.
Sólo esto se puede decir: la cosa que aparece con estas y aquellas cualidades sensibles en las circunstancias fenoménicas dadas es para el fisico -que en general ha llevado a cabo ya la
determinación física de semejantes cosas, en órdenes de apariencias de la índole respectiva – índice de una multitud de propiedades causales de esta misma cosa que en cuanto tales se dan
a conocer justamente en cadenas de apariencias de índole bien conocida. Lo que se da a conocer en ellas es patentemente -justo en cuanto se da a conocer en unidades intencionales de vivencias de conciencia- trascendente por principio.


Ideas relativas a una fenomenologia pura y una filosofia fenomenologica.
pag 121