Siete fórmulas para la elaboración de pastas y engrudos para empapelar paredes (1901)

A continuación, detallaremos algunos productos para empapelar paredes, y las fórmulas para su elaboración:

a) En­grudo, Se toma una clase barata de harina de centeno o de trigo, que ae mezcla muy bien con aguo, irla hasta dar la consistencia de una pasta, o un poco menos, teniendo cuidado de quitar todos los grumos; se echa, en esta pasta, agitando, una cucha­rada grande de alumbre pulverizado por litro de harina, echando la mezcla en agua hirviendo sin dejar de agitar hasta que la harina quede completamente incorporada y cocida. Se deja enfriar la pasta antes de usarla, fluidificándola con agua fría.

b) Pasta de Venecia. Ingredientes I: 120 gr de cola blanca o de pescado, 240 cm1 de agua fría; II: 00 cm3 de trementina de Vencia; III: 1/a Kg de harina de centeno, 1/s litro de agua fría; IV: 2 litros de agua liirviendo.

Se echan los 120 gr de cola en el agua fría durante cuatro liorna; se disuelve la cola al baño maría (tarro de cola), y cuando aun está caliente se agrega, agitando, la trementina. Se forma la pasta III, libre de grumos, se echa en IV y finalmente se agita con rapidez y se agrega la solución de cola. Esta pasta resulta muy fuerte, y Be adhiere muy bien a cualquier pared pintada, a causa de la trementina que forma porte de la misma.

c)Pasta fuerte adhesiva. I: 2 Kg de harina de centeno, 2 litros de agua fría; II 10 litros de agua hirviendo; III: 60 gr de resina en polvo.

Se forma la pasta I sin grumos, y se echa en II. Si es preciso se hierve, y cuando aun está caliente se agrega, agitando, y poco a poco, la resina pulverizada. Esta pasta es extraordinariamente fuerte y ad­hesiva, pegando muy bien los papeles de los habitaciones por gruesos que sean, y el cuero delgado. SÍ la pasta resulta dema­siado espesa, se fluidifica con un poco de agua caliente, pero nunca con agua fría

d)Pasta de harina. I: 1 Kg de harina de trigo, 1 litro de agua fría; II: 30 gr do alumbre, 120 cm3 de agua caliente; III: 3 litros de agua hirviendo.

Se forma una masa, sin grumos, con la harina y el agua fría; se disuelve el alum­bre en agua caliente, en las proporciones dados en II. Se echa entonces, sin dejar do agitar, I en III y, si es preciso,’se sigue hirviendo hasta que la pasta se espese hasta la consistencia de un mucilago semi­transparente, después de lo cual ae le incorpora, por agitación, la solución II. De este modo resulta una pasto excelente para empapelar.

e) Pasta elástica o flexible, I: 120 gr de almidón corriente, 00 gr de dextrina blan­ca; II: 30 gr de bórax, 100 cm3 de glicerina. 10 litros de agua hirviendo.

Se baten bien loa ingredientes de I hasta formar una pasta; se disuelve el bórax en el agua caliente y so agrega a esta solución la glicerina, después de lo cual se echa. I en la solución 21, sin dejar de agitar hasta que la masa resulte translúcida. Esta pasta no se agrieta, y, por ser muy fle­xible, se emplea para papel, paño, cuero y otros materiales que requieran colas fle­xibles.

f) Paata, para, paredes húmedas. Una posta con la cua.1 puede pegarse papel de habitación sobre madera o fábrica, de un modo seguro a pesar de la humedad, so prepara con harina de centeno a la cual se agrega, por cada 500 partes, en peso, después de cocida, 8 1/3 partes, en peso, de buen barniz de aceite de linaza y 8 l/2 par­tes, en peso, de trementina.

g)Pasta para paredes encaladas.

Se echan 0 Kg de arménico en agua después de haberlo machacado en pequeñas trozos, y se tira el agua que queda sobrenadando. Se hierven 300 gr de cola en agua de cola, y Be mezclan bien con el arménico remo­jado, agregando 1 Kg de yeso y tamizán­dolo toda a través de uno cuba, valiéndose de uno brocha. Se fluidifica la masa con aguo hasta que quede de la consistencia de una posta poco espesa, que ya puede aplicarae directamente. Esta posta no sólo es mucho más barata que todas las otros composiciones similares, sino que tiene la ventaja sobre éstas de adherirse mejor a los paredes encaladas, y especialmente a las que han ido blanqueándose sin quitar las capas viejas de cal.

Para la colocación, de papeles de colores lisos y delicados, no resulta tan recomendable esta pasta, por­que a causa de su tinte es muy fácil man­char los papelea al aplicarlos si no so observa un cuidado riguroso en la opera­ción; en cambio, cuando ae trate de cubrir la pared con papel oacuro puede emplearse ventajosamente.

Por qué odiamos a los viejos

Romper el hielo...

Romper el hielo…

Tenemos un problema, señores. Tenemos el inmenso problema de que los viejos empiezan a ser mayoría y que sale más rentable conseguir su voto que convencer a la gente joven, que es la que trabaja, cotiza y consume.
Los políticos han descubierto que para ganar elecciones hay que darle gusto al señorito, y donde antes el señorito era el rico y el burgués, ahora resulta que el señorito es el abuelo. Y todo esto viene de lejos…
Los viejos, pro lo pronto, piensan que la pensión que están cobrando viene de lo que ellos pagaron en su día. Es mentira. Es una mentira y una estupidez, pero lo piensan. Los viejos, pro eso mismo, creen que lo mejor es no tocar nada, que todo siga como está, que la pensión siga llegando, y que el que tenga que trabajar que arree, que ya trabajaron ellos bastante. Esa despreocupación hacia la economía real es otra tontería inmensa, pero es lo que hay, y por eso las personas de más edad siguen votando a los partidos de siempre, que no ofrecen solución alguna.
¿Que solución necesitan ellos, que ni han sufrido la crisis ni ven peligrar su modo de vida? ¿qué remedio para nada necesitan ellos, que ni tienen que emigrar, ni tiene hipoteca que pagar, ni les cobran los medicamentos en el médico?
Los jóvenes trabajan con salarios de mierda, encadenan contratos de mierda y acaban viviendo en cualquier lado, sin posibilidad de casarse ni de tener hijos, para pagar pensiones que a veces son mayores que su salario. Y cuando llega la hora de las elecciones, comprueba que sus abuelos, esos que siempre están ahí para echar una mano, prefieren seguir votando al de siempre, porque a ellos no les va tan mal.
En estas condiciones, ¿cómo quieren que en España haya paz social? ¿como quieren que todos los españoles tengamos un proyecto común cuando ni siquiera podemos tenerlo en una casa? ¿Cómo se nos puede pedir solidaridad con los de afuera si no podemos siquiera conseguir que nuestra abuela vote por uno que nos quite el pan de la boca?
Eso es loq ue ha pasado siempre en España: que hay demasiada gente que nunca robaría a su vecino, pero que estaría encantada de votar a un partido que desplumase a ese mismo vecino hasta dejarlo en la calle. Matamos, sñí, pero por mano de otro. Robamos sñí, pero por mano de otro.
Lo de siempre, vaya.
Una pena…

 

Platinum in Fuel Cells Gets a Helping Hand

The behavior of nanoscopic bits of platinum may determine whether a hydrogenpowered car is in your future. The precious metal is the key ingredient in fuel cells that power electric cars with hydrogen, producing water as the only byproduct. Unfortunately, current models are expensive because they use so much platinum, and their performance degrades too quickly for practical use. But advances by two U.S.–led groups offer new hope for tackling these problems.

The researchers targeted what is widely considered to be the biggest concern in fuel cells: improving the performance of the platinum on the positively charged electrode, or cathode—the part of the cell where chemicals react to split oxygen molecules in half.

One group, led by materials scientists Vojislav Stamenkovic a n d Nenad Markov i c a t Argonne National Laboratory in Illinois, reports in a paper published online by Science this week (www.sciencemag. org/cgi/content/abstract/ 1135941) that it increased the catalytic activity of a platinum surface 90-fold over conventional cathode catalysts used today. Meanwhile, the other group, led by chemist Radoslav Adzic of Brookhaven National Laboratory in Upton, New York, reports on page 220 that adding tiny gold clusters to the outside of their cathode materials dramatically reduced the tendency of platinum to dissolve from the cathode over extended use. “Both of these results could be quite important if the concepts can be brought to fruition in a practical manner,” says Fred Wagner, a platinum catalyst expert at General Motors’ fuel cell research center in Honeoye Falls, New York.

Platinum is the key to fuel cells because of its unusually high catalytic properties.

This ability comes into play first at the negative electrode, or anode, to split hydrogen molecules (H2) into two protons (2 H+) and two electrons (2e–). The electrons then pass through a wire and power the car. At the end of their journey, they wind up at the cathode and pass to oxygen molecules, breaking them into negatively charged oxygen atoms (O2 2–). These oxygens then pair up with protons from the anode to create water molecules. Typically, catalyzing the reactions at each electrode are platinum nanoparticles that lightly coat a highsurface- area carbon skeleton.

In practice, however, unwanted side reactions also occur around the cathode. Some charged oxygen atoms react with protons to create hydroxide molecules (OH) and likely other oxides as well. These oxides have an affinity for platinum atoms. They bind to the cathode surface, where they typically block access to as many as 45% of the platinum atoms, Markovic says. Even worse, the oxides tug on the platinum atoms and eventually pull many of them off the surface, drastically reducing the cathode’s catalytic ability.

Researchers have made some progress on both problems by alloying platinum with other metals. In previous work, Stamenkovic and colleagues studied polycrystalline platinum electrodes alloyed with other metals and found that some of the crystalline portions seemed to perform better than others.

They suspected that the disparity reflected different ways platinum atoms can pack on a surface—such as a squarelike arrangement versus a hexagonal arrangement.

To f ind out, for their current study Stamenkovic, Markovic, and colleagues created pure single crystals of platinumnickel alloys with different atomic arrangements of their crystalline lattices. They compared the samples with single crystals of pure platinum as well as with conventional platinum-carbon fuel cell catalysts.

They found that the most tightly packed arrangement of atoms, known in the materials lingo as a 111 surface, far outperformed all the others.

The material wound up with a uniform layer of platinum atoms on top of a layer with 50% nickel atoms. All the layers under that had essentially a steady composition of three parts platinum to one part nickel (see diagram).

Stamenkovic says the group’s theoretical work shows that the 111 arrangement lowers the electronic interaction between platinum atoms on the surface and oxides seeking to bind to them. The upshot is that far fewer oxides bind to the platinum surface, leaving those sites open to carry out O2-splitting reactions. That setup boosts the PtNi alloy’s activity 10-fold over a single-crystal platinum surface and 90-fold over the standard platinum-carbon combo. The reduced interaction also tugs less on the surface Pt atoms and therefore yanks fewer atoms off the surface.

That increase in stability was echoed by the result from Adzic’s team. Adzic and colleagues deposited tiny gold nanoclusters on the top of a conventional carbon-platinum fuel cell cathode. They found that the clusters produced a similar change in the electronic behavior of the surface of the cathode that prevented platinum atoms from dissolving into the electrolyte, while leaving the overall oxygen-splitting activity of the platinum unchanged.

The key now, Wagner and others say, will be to create highly active, stable real-world catalysts. Markovic says his group is already working on creating octahedron-shaped platinum-nickel nanoparticles that theory shows should have all the desired 111 surfaces.

If they work, hydrogen fuel cell–powered cars will take a major step toward widespread use.

–ROBERT F. SERVICE

 

Science 2007

Rupture Zones of Great Earthquakes in the Alaska-Aleutian Arc, 1784 to 1980

alaskan

Historical documents indicate that great earthquakes ruptured at least a 500-kilometer-long segment of the plate boundary near the Alaska Peninsula in 1788 and 1847. At least half of a major seismic gap in the Shumagin Islands ruptured during those shocks but has not experienced a great earthquake for at least 77 years.

Large shocks along this and other plate boundaries occur in bursts followed by several decades during which there is very little energy release.

The Alaska-Aleutian arc is one of the world’s most active earthquake belts (1).

Even for great earthquakes (magnitude M > 7.7), the historic record for the arc was thought to be very short and incomplete and very little information was available on repeat times of large shocks (1, 2). A better knowledge of repeat times is needed if one is to estimate seismic hazards more accurately, understand the subduction process, and make progress toward earthquake prediction.

We translated a number of documents from Russian that contain material on earthquakesa long the arc priort o the advent of an instrumental record in 1897.

These descriptions together with more recent instrumental data now make it possible for us to mapthe rupture zones of great earthquakes for nearly the past 200 years in a segment of the arc near the Alaska Peninsula. These and more recent data indicate an average repeat time for great shocks of about 50 to 75 years. Earthquake prediction, seismic hazards, and the historic documents are discussed in more detail in (3, 4).

Sykes (1) mapped the rupture zones of large earthquakes from 1925 to 1971 along the plate boundary in southern Alaska and the Aleutians by relocating aftershocks (Fig. La) of those events.

The inferred rupture zones of all known shocks of M > 7.4 from 1784 to 1980 are indicated in Fig. Lb. Rupture zones of events of M < 7.4 do not exceed about 30 km, a dimension small as compared with those of great events. Shocks of M > 7.4 account for most of the slip that occurs seismically between large lithospheric plates. Since 1938, nine large earthquakes ruptured much of the length of the plate boundary of Fig. 1.

Catalogs in the English language of earthquakes in Alaska and the Aleutians SCIENCE, VOL. 210, 19 DECEMBER 1980 for the period of Russian settlement from 1784 to 1867 contain primarily third- and fourthhand accounts. The important paper by Doroshin (5) and other early sources (6-9) contain invaluable qualitative descriptions from which we infer approximate rupture dimensions. Reports of the great earthquake of 1788 and its tsunami are available from Unga in the Shumagin Islands, Sanak Island, Kodiak Island, and the Alaska Peninsula. Most of the descriptions of earthquakes during the period of Russian control come from either that 1000-km-long segment of the arc, the westernmost Aleutians, or the region near Sitka in southeastern Alaska.

The absence of shocks in other areas is attributed to the lack of a historic record prior to 1897.

We take two or more of the following as indicative of an earthquake that ruptured a considerable (> 100 km) portion of the arc: shaking of intensity IX (10) or more at two or more separated localities

(11) , shaking lasting a minute or more, permanent changes in sea level, an associated sea wave (tsunami), ground breakage, landslides, or aftershocks lasting for weeks to months. Localities experiencing such effects are taken to have been near the rupture zone.

Descriptions of these types for 22 July 1788 (12) led us to associate them with a great shock that ruptured at least a 600- km segment of the plate boundary. Merkul’ev

(6) described strong shaking on Kodiak Island, an intense flood (tsunami) consisting of a series of waves, aftershocks every day for a month or longer, and a permanent change in sea level.

Davydov (7) also mentioned landslides on Kodiak Island and observed that the sea first withdrew from shore and then carried a vessel onto the top of a cabin.

Veniaminov (8) described strong shaking, landslides, and a “horrible flood” on Unga on the same date. He referred to another flood on Unga 16 days later in which the water rose to 50 sazhens, about 91 m. It is not clear, however, if 91 m is the vertical height of the water or the distance the waves ran up the beach.

“The tradition of Aleuts … reports that during the flood which took place on Sanak around the year 1790 the water preceded as strong and infrequent large waves” (8). Neither the date of the flood on Sanak Island nor the occurrence of an earthquake on 7 August is mentioned in any of the older Russian documents we examined. Dall (13), a secondary source, reports tsunami damage to Sanak Island on the date (12) of the second flood on Unga. Although the evidence that an earthquake on 22 July ruptured the zone from Kodiak Island to Unga is quite strong, we are forced to rely on Dall’s account to infer that a second large shock appears to have ruptured the western half of the Shumagin Gap 16 days later.

Doroshin (5) described ground cracking, landslides, shaking continuing for about 4 hours, and aftershocks lasting about 5 weeks on Ukamok (Chirikof Island, C in Fig. La) in association with a large earthquake in 1847. He stated that it was impossible to remain standing on Unga during the earthquake and that shocks were felt several times on the Alaska Peninsula. He also described another large shock on Chirikof Island in

1848. We infer that at least a 500-km segment of the plate boundary ruptured in 1847 and 1848. This sequence is particularly significant since that segment broke 60 years earlier. This is probably the best documented repeat time obtained thus far for the arc. Although the effects described by Doroshin are similar to those reported for the 1788 event, he does not mention a tsunami accompanying the event of 1847. From similar reports (5, 7) we infer that large earthquakes also occurred somewhere near Kodiak Island in 1792, 1844, and 1854; the dimensions of the rupture zones, however, cannot be ascertained. Other historic shocks are mentioned in (14).

A large earthquake occurred off the Alaska Peninsula on 28 September 1880, las indicated by the following effects observed on Chirikof Island (15): aftershocks continuing for 19 days, numerous deep fissures, strong shaking lasting about 20 minutes, extensive damage to a log house, several sea waves that traveled about 55 m onshore, and permanent changes in sea level. Moore (16) concluded that a vertical displacement of 2 m occurred at that time along a north- 0036-8075/80/1219-1343$00.50/0 Copyright ? 1980 AAAS 1343 east-striking fault that crosses the island.

Sykes (1) pointed out three segments of the plate boundary in Fig. 1 that had not been the sites of large shocks for many decades and called them seismic gaps. The historical data are particularly relevant in estimating the potential for areas near the Alaska Peninsula to be the sites of future great earthquakes. Recent work (3) on the aftershocks, the source region of the tsunami, and the rupture area inferred from the seismic moment indicate that the 1938 event did not rupture into what is called the Shumagin Gap in Fig. 1. Likewise, the generating area of the large sea wave from the 1946 earthquake appears to have been largely confined to its small aftershock area. The rupture zone of the 1948 shock is small and is located farther from the trench than most shallow events of the thrust type. The computed depths (44 and 48 km) of the two largest aftershocks suggest that it may not have ruptured the plate boundary at shallow depths.

Hence, a major seismic gap exists between the rupture zones of the shocks of 1946 and 1938.

The record of great (M > 7.7) shocks appears to be complete or nearly complete since 1898. The quiescence for great shocks along the entire arc from 1907 to 1938 is remarkable. A sequence of 14 shocks (M – 7.4) ruptured large parts of the plate boundary from 1898 to

1907. This sequence of large shocks and that from 1938 to 1965 encompassed time intervals that are short as compared to the repeat time of great shocks at a given place. Much of the North Anatolian fault ruptured in a series of large earthquakes from 1939 to 1943 (10); the entire plate boundary off northern Japan and the southern Kuril Islands broke between 1952 and 1973 (17). Thus, a strong temporal clustering of large events appears to be a common feature of several plate boundaries.

It is difficult to estimate the extent of rupture during the events of 1897 through 1907 in the Aleutians. The apparent absence of large tsunamis (18, 19) may be attributed to the distribution of rupture among several large shocks rather than in a few very great events.

An event of M = 8.1 on 9 October 1900 appears to have been centered near Kodiak Island (20, 21). A shock of M = 8.3 on 2 June 1903 (10) may have ruptured the Shumagin Gap or the 1938 zone or may have been of deeper focus. A shock on 14 July 1899 of M = 7.7 was felt on Unalaska and Unga (21). Whether the Shumagin Gap or the rupture zones of the 1938 and 1957 earthquakes broke between 1899 and 1903 cannot be resolved at present.

The great shocks of 1788 and 1847 appear to have ruptured the entire portion of the arc that broke in 1938. Since it is not clear if that segment also ruptured between 1899 and 1903, an average re- 600*N – Unalaska Shumagin

– ?Gep?- ,~-Gop-4 Commander

-7 Aug. 1788–, 22 Jul. 1788 1292Z Fig. 1. (a) Rupture zones of earthquakes of magnitude M – 7.4 from 1925 to 1971 as delineated by their aftershocks along the plate boundary in the Aleutians,s outhernA laska,a nd offshoreB ritishC olumbia[ after( 1)]. Contoursa re in fathoms. Variouss ymbolsd enote individuaal ftershock sequences; C = ChirikofI sland. (b) Space-timed iagrams howingt he lengths of the rupturez ones, magnitudes( 10, 24-27), and locationso f main shocks for known events of M > 7.4 from 1784 to 1980. Dashes denote uncertainties in the size of the rupture zones. Magnitudes pertain to surfacew ave scale, Ms, unless otherwisei ndicated;M wi s the ultralong-periodm agnitude( 25); Mti s the tsunamim agnitude( 18). Larges hocks in 1929 and 1965 are omitted that are not on the plate interface and that involve normal faulting in the trench (28). The St. Elias shock (M = 7.2) of 1979 filled only part of the gap between rupture zones of the great earthquakes of 1958 and 1964.

1960 1940 1920 1900 1880 1860 1840 1820 1800 Yakataga .-Gap-J IGGpPI ?

?UIL-?—I-? -Y– ?U—?–CC—CI_ i II 1344 SCIENCE, VOL. 210 peat time of 50 to 75 years is obtained if one divides 150 years (1788 to 1938) by either two or three earthquake cycles. A repeat time of 91 years (1847 to 1938) is obtained if that zone did not rupture in 1880 or between 1897 and 1903. The eastern half of the Shumagin Gap also broke in 1788 and 1847. The gap has not been the site of a great shock since at least

1903. Although the interval that has elapsed since 1903 is somewhat greater than 50 to 75 years, repeat times of historic events along the Nankai trough of southwestern Japan vary by about a factor of 2 (22). The repeat time, however, appears to be proportional to the size of the rupture zone and the displacement in the preceding large earthquake (23).

Since the shocks of 1938 and 1899 to 1903 near the Alaska Peninsula appear to have shorter rupture lengths than those of 1788 and 1847, the experience from Japan suggests that the interval between the last major event and a future large shock will be at the shorter end of the spectrum of repeat times for both the Shumagin Gap and the 1938 zone. Thus, it seems likely that one or more large earthquakes will rupture the Shumagin Gap sometime in the next 10 to 20 years.

LYNN R. SYKES

 

Science, 1980

Evolución histórica de la criminología

Criminologia-cienciaLa investigación Criminalística surgió, se desarrolló y se desempeña en la actualidad como derivación muy estrecha de la evolución histórica de la policía a escala mundial.

La palabra policía proceed de politeía, nombre griego dado a la colectividad de los ciudadanos, de sus derechos, su forma de vivir, su estado, su ciudad – de la polis.

Si se trasmitieran los derechos constitucionales de los griegos a los ciudadanos de hoy, cada uno sería propiamente un policía.

El desarrollo de las leyes y la creación de sus protectores datan del mismo tiempo que la violación de las normas morales. El crimen es tan viejo como la humanidad y no hubo época en que ésta estuviera libre de delitos.

La primera colectividad humana no conocía todavía la policía porque no la necesitaba. El individuo sólo podía existir en colectividad ya que una despiadada naturaleza, los rigores del clima, las fieras en busca de presa destruían al individuo solitario, por eso se sometía a la ley de la familia. Los padres eran los guardianes del orden.

Lo que se conoce hoy como Policía Criminal surgió a mediados del siglo XVIII, cuando la delincuencia era una amenaza no sólo para el individuo, sino también para el Estado y a la que se le enfrentaba esta organización firmemente perfilada.

Un breve recorrido por diferentes países permite conocer cómo surgió la Policía en el mundo.

Inglaterra : En Londres el poeta Henry Fielding, quien en 1748 fue nombrado Juez de Paz y, más tarde, Jefe de la Oficina de Policía, creó la primera Brigada de Agentes de Policía.

Como el deber principal de los miembros de la Brigada de Fielding era el servicio de patrulla para cazar los criminales, se les llamaba a estos policías Bow-Street- Runners (corredores de ‘’Bow-Street’’): ellos corrían detrás de los ladrones. La Policía Inglesa, con el nombre de New Scotland-Yard, tuvo su cuartel principal en1890.

Los primeros Laboratorios Científicos fueron afiliados al Departamento de Investigación Criminal (CID). El descubrimiento de la diferenciación de huellas de sangre significaba un progreso considerable.

En 1904 la Dactiloscopía ocupó el lugar del Sistema de Bertillón para la identificación de personas.

La aparición de los primeros coches de turismo en las calles de Londres, condujo a crear las primeras oficinas de Policía de Tráfico.

Alemania: El Rey de Prusia, Federico el Grande, reconoció la necesidad de mejorar la aplicación de la pena y el 11 de octubre de 1777 escribió a Voltaire: “mejor evitar e impedir los crímenes, que castigarlos”. Sin embargo, el tiempo no estaba maduro todavía para reformas tan progresistas.

Un cambio fundamental se produjo con el Código Civil General para los estados prusianos de 1794 que expresaba: …es deber de la Policía prevenir el mantenimiento de la tranquilidad pública, la seguridad y el orden y evitar el peligro que acecha al público o a sus miembros individuales… En 1850 entró en vigor la nueva Ley Policíaca de Prusia, que fue adoptada por los otros estados alemanes. Esta ley preveía también la formación de tropas policíacas especializadas que ya no tendrían solamente funciones estatales policíacas, sino que deberían estar entregadas enteramente a la investigación criminalística.

En 1876 en Berlín se introduce el fichero policíaco para la identificación de criminales y, veinte años después, se pone en práctica el Sistema Antropométrico de Bertillón.

A finales de la década de 1920-1930 nacen los primeros Laboratorios de Criminalística en Alemania, los que se ocupaban de la investigación de huellas de instrumentos, de la comparación de escrituras, del examen de documentos y de la identificación de casquillos y proyectiles.

Austria : En Viena, en 1754, empezaron sus servicios los primeros Comisarios de Policía y en 1776 se creó la Oficina Policíaca con amplias competencias. Diez años después se establecieron Direcciones Policíacas Regionales en las capitales de provincias En 1852 se creó la Policía Civil y un año después la Policía Uniformada, ambas como Órganos Ejecutivos de la policía de Viena.

En 1923 se celebró el Congreso Internacional de la Policía Criminal, en Viena, en el que se fundó la INTERPOL.

Suiza : Las organizaciones policíacas de Suiza se desarrollaron según modelos alemanes y franceses. Una autoridad policíaca competente para toda Suiza fue creada por la Constitución Federal de 1848. En este mismo año se fundó la Abogacía Federal. En 1889 se formó la Oficina Central de la Policía Política.

En 1929, a la Abogacía Federal le fue asignado el servicio de Identificación y el Registro Penal Central, además de los archivos de huellas dactilares, la colección de impresiones de pulpejos y el material Antropométrico del Bertillonaje.

Francia : En 1789, Bailly el Alcalde de París, se hizo cargo del poder policíaco. Desarrolló una oficina policíaca de la Comisión de la Beneficencia Pública y una Comisión General de Seguridad (precursora de la Sureté Nacionale).

En 1790 se formó la Gendarmería (“Gens d’ Armes”, gente armada). Realizaba el servicio de guardia, el servicio en las cárceles, el servicio judicial, la conducción de los detenidos y la protección de la Asamblea Nacional.

En 1779 entró en el Ministerio de la Policía Joseph Fouché, símbolo de los más despiadados métodos policíacos, quien dominaba diabólicamente todos los métodos de trabajo policíaco secreto y de espionaje. Nadie lo respetó, pero todos le temían.

En la historia de la Policía Francesa hubo un hombre que se inició como agente secreto de la Policía Criminal en 1809 y llegó a ser el jefe de la “Sureté” unos años después, su nombre era Eugéne Francois Vidocq. Tenía antecedentes penales, se había escapado repetidas veces de la prisión, conocía los bajos fondos con sus más ocultos escondites. Quiso salvar su piel, vendiendo la de los demás.

Vidocq fue uno de los primeros “policías preventivos del mundo”. A través de las informaciones que recibía de primera mano, muchos crímenes pudieron ser descubiertos durante su planificación.

Su campo de acción creció, se transformó de un pequeño espía policíaco a un agente de investigación criminal. En 1818 Vidocq tenía su propia oficina, con doce asistentes. De esta “Oficina Vidocq” se desarrolló la actual Policía Judicial.

De importancia para la historia contemporánea fue la instalación de una Escuela de Policía, en la cual Alfonso Bertillón desarrollaba su “Sistema para medir el cuerpo humano con el fin de la identificación de individuos”.

14 Aunque actualmente el Sistema Bertillón sólo es de interés histórico, a finales del siglo XIX fue de considerable valor para la identificación de criminales.

En 1888 empezó su labor el primer Laboratorio Científico de Criminalística, en el Palacio de Justicia de París.

Estados Unidos de América: La Policía Norteamericana debe su estructura a la vida colonizadora que se desarrollaba lentamente desde la costa oriental hacia el interior del país.

La lucha contra el crimen se basaba en elementos de orígenes romano, neerlandés y anglosajón.

En el año 1736 la ciudad de Boston tenía ya una guardia policíaca formada según ejemplo inglés.

El desarrollo de la Policía en este país se efectuó bajo circunstancias completamente diferentes a las de Europa. Con las crecientes masas de inmigrantes aumentó también el número de individuos indeseables y la criminalidad organizada.

En 1844 los ciudadanos de Nueva York organizaron una Policía Comunal, con servicios nocturno y diurno por turnos. Su sistema sirvió como base para la formación de la Policía en otras ciudades, hasta que en 1855 inició la uniformidad general de la Policía.

En 1909 la Policía comenzó su trabajo como “Buró de Investigación (BI)” y su campo de acción era muy limitado, hasta que en 1912 se amplió convirtiéndose en Federal (FBI) y enfrentando crímenes considerados “contra la Federación” y que, por tanto, fueron excluidos de la competencia policíaca local para depender del derecho federal.

Con el decursar de los años, además del FBI, otros órganos se ocupan de los asuntos criminales, tales como: Agencia Central de Inteligencia, Servicio Secreto, Policía del Palacio Presidencial y Policías de la Tesorería, de Drogas y de la Aduana.

Cómo una llave abre una puerta. Tecnología básica de la cerradura.

Esquema básico de una cerradura

Esquema básico de una cerradura

Presentamos aquí el funcionamiento básico de una cerradura de pistones, y el vocabulario empleado en casi todos los manuales al respecto. Los términos usados para describir las cerraduras y sus partes varían de un fabricante a otro y de una ciudad a otra, así que si ya conoces el funcionamiento básico de una cerradura, deberías mirar la figura 2.1 para conocer el vocabulario.

Sabiendo como funciona una cerradura cuando la abre una llave es solo una parte de lo que necesitas conocer. Cada modelo de cerradura responde de un modo peculiar a las fuerzas que interactúan con ella, pero los principios básicos no varían.

 La figura 2.1 muestra las nomenclaturas de las cerraduras reales. La llave se inserta en la guía (Keyway) del bombín (Plug). Las protuberancias a los lados de la guía se llaman salas (Wards). Las salas limitan el tipo de llaves que pueden ser insertadas en el bombín. El bombín es un cilindro que gira cuando su llave es insertada entera. La parte de la cerradura que no gira se llama casquillo (Hull). El primer pistón que toca la llave al insertarla se llama pistón uno. El resto se numeran incrementando el número hacia la parte trasera del cerrojo.

La llave levanta cada pareja de pistones hasta que el hueco entre el pistón de llave (Key Pin) y el pistón guía (Drive Pin) alcanza la línea de giro (Sheer Line). Cuando todos los pistones están en esta posición, el bombín puede girar y la cerradura se abre. Una llave incorrecta levantaría algunos de los pistones dejándolos entre el casquillo y el bombín, y atascarían este último evitando que gire.

Antiguo, sencillo y eficaz.

ORÍGENES Y DESARROLLO DE LAS CALCULADORAS ELECTRÓNICAS DE BOLSILLO

casioNadie hubiera osado jamás imaginar hace solamente algunos decenios que un or­denador cabría un día en el hueco de una mano. Y, sin embargo, se ha hecho una realidad, gracias en primer lugar, como pioneras, a la consecución de las calculadoras de bolsillo ordenadoras. Veamos sus principales etapas históricas.

Desde hace unos cuarenta años, unas calculadoras electrónicas minúsculas, que re­ciben el nombre de calculadoras de bolsillo, debido a su reducido tamaño, han in­vadido el mercado internacional. Sin cometer nunca el más mínimo error y con una precisión absolutamente extraordinaria, son capaces de efectuar cálculos referidos a cientos de cifras y de resolver problemas muy complejos.

Para comprender lo que ha permitido dotar a estas pequeñas máquinas de su asombrosa capacidad, de su eficiencia, de su velocidad y de su potencia, conviene revisar los progresos recientes de la tecnología electrónica, a los cuales deben una gran parte de su expansión y de su desarrollo.

Este cuadro constituirá, pues, de alguna manera, la continuación y la conclusión de la historia de las calculadoras clásicas y permitirá, al mismo tiempo, hacerse una pequeña idea de la evolución tecnológica de los ordenadores electrónicos, que no hemos abordado en el marco de la presente obra.

Las calculadoras electrónicas de la primera generación

Esta historia empezó, de hecho, a comienzos de los años cuarenta, cuando fueron construidas las primeras calculadoras electrónicas de tipo clásico.

Una de ellas fue la calculadora experimental electrónica «cuatro operaciones», puesta a punto en 1942 por J. Desch, H. E. Kniess y H. Mumma, en los laboratorios de NCR en Dayton, Ohio, en Estados Unidos. Sin embargo, hubo que esperar una docena de años para que se elaborara un producto realmente comercial: las famosas National Computronic y National Multitronic.

Basadas en el empleo de los tubos de vacío (cuya función esencial era conmu­tar señales eléctricas para permitir efectuar las operaciones aritméticas elementales), eran miles de veces más rápidas que las máquinas de calcular electromecánicas de los años treinta y cuarenta.

Pero esta tecnología todavía era insuficiente y poco fiable: las lámparas eran frá­giles, voluminosas, consumidoras de energía eléctrica, disipadoras de calor de eva­cuación y, además, muy caras.

Las calculadoras electrónicas de la segunda generación

El paso siguiente se dio en Estados Unidos, al final de los años cincuenta, gracias a un descubrimiento realizado en diciembre de 1947, en los laboratorios de la Bell Te- lephone, en Nueva Jersey: el transistor, semiconductor que permitió disminuir muy notablemente la duración del trayecto recorrido por los impulsos eléctricos en un circuito y disipar, por consiguiente, mucho menos calor.

Utilizando la técnica de los circuitos «impresos» (que combina varios transisto­res con diversos condensadores, resistencias y otros elementos eléctricos discretos), las calculadoras electrónicas «cuatro operaciones» de esta segunda generación pa­saron, así, del tamaño de un armario al de una maleta. Y fueron más rápidas, mucho más fiables y con costes de producción menores que las anteriores.

La primera calculadora basada en esta tecnología fue la Anita, fabricada en 1959 por la firma inglesa Bell Punch and Co., e introducida en el mercado internacional a partir de 1963. Provista de un teclado completo y de un visor único que servía sucesivamente para la lectura de los datos y de los resultados, poseía además doce tubos de neón, colocados uno al lado del otro, en los cuales aparecían las cifras lu­minosas de esos datos o de esos resultados.

En 1961 apareció la Friden 130, que poseía un teclado reducido, con un tubo ca­tódico del mismo tipo que el de los televisores, en cuya pantalla aparecían simultá­neamente los datos y los resultados.

La construcción y comercialización de varias máquinas de este tipo configuró una etapa feliz de la industria de las calculadoras de oficina hasta el final de los años sesenta.

Caracterizadas por un silencio total (y eso era mucho en un momento en que lo nor­mal era tener que aguantar todo el día el ruido infernal de las antiguas máquinas me­cánicas o electromecánicas) y por un funcionamiento instantáneo, estas máquinas cons­tituyeron casi el ideal que deseaban aquellos que necesariamente las utilizaban.

Pero seguían siendo bastante caras y grandes; su tamaño equivalía, aproxima­damente, al de las cajas registradoras de los comercios.

Las calculadoras electrónicas de la tercera generación

Mientras tanto, en 1958 se llevó a cabo un importante avance en el campo de los se­miconductores, gracias al descubrimiento del circuito integrado por Jack Kilby, in­geniero americano contratado a partir de ese año por Texas Instruments (que figura­ba entonces entre las firmas electrónicas empeñadas en conseguir una reducción del tamaño de las máquinas, y que había obtenido un éxito importante al convertirse en la primera empresa del mundo en fabricar transistores de silicio a gran escala).

Eliminando el empleo de transistores discretos y de conectores mecánicos en los circuitos electrónicos, la innovación tuvo consecuencias muy importantes, porque permitió que cupieran cientos, incluso miles de transistores y de condensadores en un cárter que ocupaba un espacio extremadamente limitado.

Es más, cabe señalar que los programas espaciales Mercury, Gemini y Apollo, que se consumaron con el envío de los primeros hombres a la Luna, probablemen­te no habrían sido posibles sin esta contribución fundamental, que por cierto supu­so para su autor la National Medal of Sciences.

El circuito integrado es un sólido formado por un metal semiconductor que com­prende zonas de tipo diferente, cada una de ellas con una función determinada (am­plificación, operación lógica, conmutación), en un montaje eléctrico.

En el ámbito del cálculo artificial automático, esta tecnología permite, en defi­nitiva, reducir considerablemente la dimensión y el coste de las máquinas, lo que propició la aparición de las primeras calculadoras electrónicas de bolsillo: una in­novación a la que esperaba el extraordinario destino que ya conocemos.

Las primeras calculadoras de bolsillo

La primera calculadora electrónica de bolsillo de la historia vio la luz en el trans­curso de los años sesenta en los laboratorios de la sociedad Texas Instruments. Las investigaciones comenzaron en 1965, por orden de Patrick Haggerty, entonces jefe ejecutivo de esa firma, para concluir a finales del año 1966 en la producción del pri­mer modelo experimental (actualmente conservado en el National Museumof Ame­rican History, en la Smithsonian Institution de Washington DC).

Esa fue la chispa que puso en marcha una auténtica revolución en el campo de las calculadoras clásicas. En 1967, el principio y los diversos componentes de la pe­queña máquina fueron minuciosamente descritos por Jack Kilby, con la colabora­ción de Jerry Merryman y de James van Tassel, con vistas a solicitar una patente para el Miniature Electronic Calculator, como fue bautizado entonces el prototipo. Re­gistrada oficialmente en 1972, el US Patent Office concedió la patente a Texas Ins­truments, con el número 3.819.921. (Comunicación personal de R. Ligonniére.)

No obstante, Texas Instruments no fue la primera firma en comercializar calcu­ladoras de este tipo, ni tan siquiera la primera en producirlas masivamente.

El primer modelo comercial fue una calculadora cuatro operaciones con un peso de dos onzas y media y un precio de ciento cincuenta dólares, lanzada al mercado el 14 de abril de 1971, con el nombre de Pocketronic, por la Universal Data Machine Co., establecida en un almacén de Chicago. Utilizando circuitos integrados del tipo MOS (semiconductores de óxido metálico), comprados precisamente a Texas Instruments, esta empresa procedió, desde el inicio de los años setenta, al montaje de entre cinco y seis mil calculadoras por semana, que comercializó en los grandes almacenes americanos.

En realidad, sólo a partir de 1972 Texas Instruments inició la comercialización de su primer producto para el gran público.

Pero a partir de esa época, toda la competencia empezó a pisarse los talones Y en los años posteriores se produjo un importantísimo avance de la industria de calculadoras de bolsillo, que experimentaron una reducción de tamaño cada vez mayor, paralela a una progresiva reducción de precio.

Del circuito integrado al microprocesador

La última etapa de este avance tecnológico se caracterizó por la puesta a punto, en 1971 del microprocesador, circuito integrado muy avanzado, de pequeño volu men, provisto de una memoria, un dispositivo de entrada y salida, un órgano de ira tamiento y un sistema de programación, y que se podía especializar en la ejecución de tareas de un cierto tipo.

Ampliamente explotada desde 1976, cuando comenzaron a fabricarse a gran es cala los componentes de muy alta densidad (tecnología llamada de VLSI, o Ver y hir ge Scale Integration, actualmente en continua evolución), esta importante innova ción fue aplicada a diversos campos: lavadoras, automóviles, ordenadores, microordenadores, robots industriales, etc. Así pues, había sido posible incluir has­ta varias decenas de miles (incluso cientos de miles) de posiciones de memoria en un circuito que ocupaba un espacio inferior al de la uña del meñique. Su potencial revolucionó, a partir de entonces, multitud de actividades, hasta el punto de cambiar completamente la vida cotidiana de varios millones de consumidores.

Los procedimientos de visualización numérica de las calculadoras de bolsillo

Otra mejora aportada a las calculadoras electrónicas de bolsillo se refiere a los pro­cedimientos de visualización de las cifras. En las calculadoras electrónicas de ofi­cina de los años sesenta, esta visualización numérica se hacía por luminiscencia me­diante un cierto número de tubos electrónicos; cada tubo incluía diez electrodos que tenían respectivamente la forma de las cifras de 0 a 9; estas poseían todas el mis­mo ánodo, pero cada una estaba conectada a un terminal distinto. Por eso la visua­lización se conseguía mediante una descarga eléctrica, la cual, llevando el electro­do deseado a un cierto potencial, creaba una luminiscencia alrededor de la cifra así recorrida por la corriente eléctrica.

Pero con la aparición de las primeras calculadoras de bolsillo, la técnica se mo­dificó radicalmente, y a partir de entonces las cifras aparecían en los indicadores lu­minosos gracias al procedimiento llamado LED (Light Emitting Diode), es decir, se­gún un semiconductor que, bajo tensión, emite luz.

Sin embargo, a partir de mediados de los años setenta, los constructores opta­ron por la técnica, mucho más ventajosa y económica, de la visualización llamada LCD (Liquid Crystal Display), conocida por el nombre de visualización por cris­tales líquidos, la cual, bajo el efecto de un campo eléctrico muy débil, hace pasar el líquido cristalino del estado transparente al estado opaco.

Nacimiento y desarrollo de las calculadoras impresoras

Otra mejora introducida a estas máquinas fue la incorporación de una impresora, la cual permitía, por tanto conservar las operaciones intermedias y los resultados de los cálculos, lo que, en gran número de profesiones actuales, es absolutamente in­dispensable.

Al principio se utilizó la técnica electromecánica. Pero después logró eliminarse la incomodidad de su empleo, así como las restricciones de peso y dimensiones in­herentes a los dispositivos basados en esta tecnología.

Una de las innovaciones destacadas en este ámbito ha consistido en el desarrollo de las impresoras térmicas. Una cabeza impresora transmite calor a un papel im­pregnado de solución química que reproduce instantáneamente caracteres de escritu­ra o de numeración bien claros. Eliminando el empleo de cintas entintadoras, esta téc­nica ha hecho que los dispositivos sean más silenciosos y fiables.

Primeras evoluciones estructurales de las calculadoras de bolsillo

En lo que respecta a la estructura calculatoria, sin embargo, estas máquinas siguieron siendo muy limitadas durante un cierto tiempo.

Con sus teclas, ligadas cada una a un microprocesador especializado, permitían, sin duda, efectuar con total seguridad y gran rapidez las cuatro operaciones aritmé­ticas elementales. Algunas incluso ofrecían la posibilidad de elevar un número al cua­drado o al cubo, extraer raíces cuadradas o cúbicas o calcular números inversos. Pero se incluían todavía en la categoría de las máquinas de calcular «tradicionales», por­que aún eran incapaces de ejecutar el más mínimo cálculo complejo, fuese en el ám­bito contable, estadístico, financiero o, con mayor motivo, en el ámbito de la física o de la matemática.

Con un avance científico y técnico suficiente, los constructores tuvieron enton­ces la idea de añadir a estas máquinas un cierto número de teclas correspondientes a funciones suplementarias; funciones cuyos algoritmos, pregrabados en los circui­tos internos de las máquinas, permitieron, en adelante, efectuar cálculos como los porcentajes, los intereses, simples o compuestos, las anualidades, las funciones tri­gonométricas, los logaritmos o las funciones exponenciales.

Fue entonces cuando nacieron las calculadoras de bolsillo del género estadístico, financiero o científico, especialmente adaptadas a las necesidades de quienes las uti­lizaban y provistas de la función de memorización de las constantes fundamentales (como no e, por ejemplo).

Y así es como la calculadora electrónica de bolsillo sustituyó definitivamente a la calculadora cilindrica portátil mecánica llamada Curta, como también a las impo­nentes máquinas de calcular de oficina, y terminó con el reinado absoluto de las ta­blas de logaritmos y de las reglas de cálculo, tan apreciadas (o tan temidas) por ge­neraciones de estudiantes, matemáticos, físicos, astrónomos, ingenieros, arquitectos, técnicos y aparejadores.

Las primeras calculadoras de bolsillo programables

A pesar de todas estas mejoras, ninguna de estas máquinas pudo aspirar a pertene­cer a la familia de los ordenadores electrónicos, ya que sólo podían resolver un tipo muy limitado de problemas: aquellos, para los cuales habían sido concebidas estruc­turalmente.

En cuanto a sus características técnicas, se reducían a un dispositivo de entnula (el teclado), un dispositivo de salida (la pantalla de visualización de cifras, com­pletada a veces por una impresora) y una unidad aritmética, órgano de tratamiento elaborado mediante microprocesadores integrados en los circuitos y encargado de ejecutar cálculos bien determinados.

Estas máquinas, sin embargo, no tenían memoria. Es más, les faltaba flexihlll dad, ya que exigían, en el caso de cálculos encadenados o repetitivos, numerosas m tervenciones por parte del operador humano.

Aunque, sin duda, satisficieron ampliamente las necesidades del cálculo corriente, individual, contable o financiero, e incluso permitieron a veces hacer algunos cálculo« un poco más complicados, siguieron siendo, en cambio, incapaces de efectuar cáculos matemáticos tales como la determinación de las raíces de un polinomio, el cálculo de un determinante, el cálculo de coeficientes de una serie de Fourier, etc. Cálculos con­fiados hasta entonces a grandes calculadoras analíticas o a ordenadores, o bien a InN trunientos de tipo analógico más o menos especializados, como el compás de propor ción, la regla de cálculo, el planimetro, el intègrafo, el integrador de ruedas, etc.

En lugar de construir tantas calculadoras de bolsillo especializadas como tarcuN hay que llevar a cabo, ¿por qué no diseñar una especie de calculadora de bolsillo mui tifunción que estuviera estructuralmente concebida para ejecutar todos los tipos de cálculos matemáticos? Esto es junto lo que se pensó a finales de 1972 en Cuppertino, California, en los laboratorios de la sociedad Hewlett Packard. Y es así como na ció la primera calculadora electrónica programable portátil de la historia.

Las calculadoras procedentes de esta importante innovación estaban provistas:

  1. De un dispositivo de entrada/salida.
  2. De un dispositivo de almacenamiento de las instrucciones de programas e je cutables por la máquina.
  3. De una memoria interna que permitía conservar los resultados intermedios o terminales de los cálculos efectuados.
  4. De un órgano de mando que supervisaba y ordenaba la ejecución de los cálculos previstos por las instrucciones de programas.
  5. De un órgano de tratamiento que ponía en ejecución los datos introducidos en la máquina para transformarlos con vistas a obtener los resultados del cálculo considera do, y que ejecutaba al mismo tiempo las operaciones de traslado que se le imponían.

El nacimiento de las calculadoras de bolsillo ordenadoras

Así pues, no todas estas calculadoras eran ordenadores, en el verdadero sentido del término. Se podían programar, pero su sistema de programación era externo; por eso no tenían la facultad de encontrar una determinada instrucción del programa en eje­cución para modificar ellas mismas el desarrollo de las operaciones.

Hubo que esperar hasta los años 1975 y 1976 para que aparecieran, sucesivamente, en Sharp, en Hewlett Packard y luego en otras empresas, las primeras calculadoras programables provistas de un programa grabado, que funcionaban mediante lenguajes informáticos y ofrecían la posibilidad de crear por sí mismas nuevas funciones,

Gracias a este progreso, se diseñaron máquinas portátiles universales en mate­ria de cálculo matemático. Estas calculadoras, que comprendían un dispositivo do entrada/salida, un órgano de mando, una función de memorización y un órgano de tratamiento, estuvieron dotadas de la posibilidad de programar las diversas fases con­secutivas de un cálculo y de tratar las instrucciones correspondientes como datos. Lo que equivale a decir que se ha logrado elaborar auténticos pequeños ordenadores es­pecializados en la función-cálculo matemático, poco mayores que una pequeña car­tera, pero casi tan eficientes en este ámbito como las máquinas grandes con el mis­mo nombre. Así es como nacieron las primeras calculadoras de bolsillo ordenadoras.

Estas calculadoras de bolsillo fueron provistas desde entonces de las posibili­dades de ramificación condicional. Es decir, en ciertos momentos, se podía de­sarrollar cualquier programa según un procedimiento deseado (por ejemplo, si­guiendo el valor de un parámetro o de un resultado intermedio), e incluso efectuar automáticamente un cálculo de tipo repetitivo sin que fuera necesario reintroducir en la máquina la operación en cuestión tantas veces como repeticiones hubiera.

Añadamos, para terminar, las siguientes mejoras técnicas, aportadas, entre tantas otras, a estos pequeños aparatos: indicadores que señalan en la pantalla las opera­ciones en espera; indicadores que permiten saber el nombre del dato que se va a introducir (sobre todo para los cambios de referencia, las estadísticas de dos varia­bles); indicadores de frecuencia; indicadores de todas las informaciones necesarias para la comprensión de los cálculos; sistemas de menús con ventanas; niveles múl­tiples de programación; posibilidad de gestión de ficheros con mensajes alfabéticos, incluso alfanuméricos; menús arborescentes con ventanas, etc.

Para dotar a las calculadoras de bolsillo de tal universalidad en el ámbito del cálculo matemático, se ha aprovechado el savoir-faire técnico y el gran avance tec­nológico realizado hasta entonces en el dominio de la electrónica, pero, sobre todo, la estructura de los ordenadores electrónicos, de los cuales analizaremos en el siguiente capítulo las principales características, mediante una definición muy general.

 

Georges Ifrah