Oficios Técnicos

www.sapiensman.com/tecnoficio


 


 

HOME

Technical Documents - Documentos Técnicos: Electricidad: Historia de la electricidad. Cronología.

La electricidad

Historia de la electricidad

Las propiedades eléctricas o electroestáticas de ciertos materiales eran ya conocidas por las civilizaciones antiguas. Hacia el año 600 a.c., el filósofo y científico Thales de Mileto había comprobado que si se frotaba el ámbar, éste atraía hacia sí objetos más livianos. Se creía que la electricidad residía en el objeto frotado. De ahí que el término electricidad provenga del vocablo griego elecktron, que significa ámbar.En los dominios de la antigua Roma ya se explotaba un mineral que también poseía la propiedad de atraer a ciertos materiales (los metálicos), este mineral recibía el nombre de magnetita, mineral muy apreciado en la antigüedad precisamente por sus particulares características. Pero no fue hasta la época del Renacimiento cuando comenzaron los primeros estudios metodológicos, en los cuales la electricidad estuvo íntimamente relacionada con el magnetismo.

Antes del año 1800, el estudio de los fenómenos eléctricos y magnéticos sólo interesó a unos cuantos científicos, como W. Gilbert, C. A. de Coulomb, L. Galvani, Otto Von Guericke, Benjamín Franklin, o Alessandro Volta. Algunos otros hicieron importantes contribuciones al aún insuficiente y fragmentado conocimiento de la electricidad, pero en aquel tiempo no se conocían todavía sus aplicaciones y los estudios sólo fueron motivados por una simple curiosidad intelectual. La población iluminaba sus hogares con velas, lámparas alimentadas con aceite de ballena y petróleo, y la potencia motriz era suministrada generalmente por personas o animales de tracción.

El inglés William Gilbert comprobó que algunas sustancias se comportaban como el ámbar y cuando eran frotadas atraían objetos livianos, mientras que otras no ejercían ninguna atracción. A las primeras, entre las que ubicó al cristal, al azufre y la resina, las llamó eléctricas, mientras que a las segundas, como el cobre o la plata, aneléctricas.

A principios del siglo XIX, el conde Alessandro Volta construyó una pila galvánica. Colocó capas de cinc, papel y cobre, y descubrió que si se unía la base de cinc con la última capa de cobre, el resultado era una corriente eléctrica que fluía por el hilo de la unión. Este sencillo aparato fue el prototipo de las pilas eléctricas, de los acumuladores y de toda corriente eléctrica producida hasta la aparición de la dinamo.

Mientras tanto, George Simon Ohm sentó las bases del estudio de la circulación de las cargas eléctricas en el interior de materias conductoras, postulando su ley, en la cual se relacionaba la resistencia con la intensidad y la tensión, es decir, tres de las cuatro magnitudes más importantes de la electricidad.

En 1819, Hans Cristian Oersted descubrió que una aguja magnética colgada de un hilo se apartaba de su posición inicial cuando pasaba próxima a ella una corriente eléctrica, y postuló que las corrientes eléctricas producían un efecto magnético. De esta simple observación salió la tecnología del telégrafo eléctrico. Sobre esta base, André Marie Ampère dedujo que las corrientes eléctricas debían comportarse del mismo modo que los imanes. El descubrimiento de Ampère llevó a Michael Faraday a suponer que una corriente que circulara cerca de un circuito induciría otra corriente en él. El resultado de su experimento fue que esto sólo sucedía al comenzar y cesar de fluir la corriente en el primer circuito. Sustituyó la corriente por un imán y encontró que su movimiento en la proximidad del circuito inducía en éste una corriente. De forma que pudo comprobar que el trabajo mecánico empleado en mover un imán podía transformarse en corriente eléctrica.

Hacia mediados del siglo XIX se estableció la distinción entre materiales aislantes y conductores. Los aislantes eran aquellos a los que Gilbert había considerado eléctricos, en tanto que los conductores eran los aneléctricos. Esto permitió que se construyera el primer almacenador rudimentario: estaba formado por dos placas conductoras que tenían una lámina aislante entre ellas. Fue conocido como botella de Leyden, en honor a la ciudad donde se realizo el inventó. Durante este mismo periodo ocurrieron impresionantes avances en la compresión de los fenómenos eléctricos y magnéticos. Humphrey Davy, André Marie Ampere, G.S. Ohm y Karl Gauss realizaron importantes descubrimientos, pero el descubrimiento que llegó a ser fundamental para elevar el concepto de la electricidad como un fenómeno científico interesante a una gran tecnología con implicaciones sociales de grandes alcances se logró de forma independiente por los investigadores Michael Faraday y Joseph Henry.

Ampère y otros ya habían observado que los campos magnéticos eran generados por corrientes eléctricas; sin embargo, ninguno había descubierto cómo se podían obtener corrientes eléctricas a partir de campos magnéticos. Faraday trabajó en ello de 1821 a 1831, logrando el éxito al formular la ley que lleva su nombre. Posteriormente construyó una máquina generadora de voltaje según los principios de inducción magnética. Se tenía ahora una fuente de electricidad que rivalizaba (y excedía en mucho) las posibilidades de la pila voltaica y las botellas de Leyden.

James Prescott Joule, descubrió a qué eran debidas las pérdidas de energía. Mediante la ley de Joule, enunciada en 1841, según la cual la cantidad de calor desprendido por un conductor al paso de una corriente eléctrica es directamente proporcional al cuadrado de la intensidad de la corriente, a la resistencia de dicho conductor y al tiempo durante el cual circula dicha corriente, según la expresión: Q= kI2Rt, donde k es una constante de proporcionalidad que depende del sistema de unidades utilizado.

 

Varios investigadores, incluyendo Carl Siemens, Wheatstone, Varley, Gramme, aplicaron los principios de inducción en la construcción de primitivos generadores eléctricos en el periodo comprendido entre 1840 a 1870. Casi al mismo tiempo, un fenómeno descubierto algunos años atrás, atrajo especial atención como una práctica fuente luminosa. Se observó que cuando dos electrodos conducían corriente se mantenían separados, se formaba entre ellos un arco eléctrico de intenso brillo.

Los experimentos de Faraday fueron expresados matemáticamente por James Maxwell, quien en 1873 presentó sus ecuaciones, que unificaban la descripción de los comportamientos eléctricos y magnéticos y su desplazamiento a través del espacio en forma de ondas.

En 1878 Thomas Alva Edison comenzó los experimentos que terminarían, un año más tarde, con la invención de la lámpara eléctrica, que universalizaría el uso de la electricidad. Desde que en 1880 entró en funcionamiento en Londres la primera central eléctrica destinada a iluminar la ciudad, las aplicaciones de esta forma de energía se extendieron progresivamente. En Buenos Aires, el sistema eléctrico comenzó con la aparición de la Compañía General Eléctrica Ciudad de Buenos Aires, en 1887.

En 1882 se instaló el primer sistema para la venta de energía eléctrica para el alumbrado incandescente en EE.UU. El sistema era de corriente continua (DC), de tres cables 220/110 V, y alimentó una carga de lámparas de Edison que tenían un requerimiento total de 30 KW de potencia. Este y otros sistemas avanzados fueron el principio de lo que se convertiría en una de las industrias más grandes del mundo.

Entre 1800 y 1810 se fundaron compañías comerciales de alumbrado con gas, primero en Europa y poco después en Estados unidos. Hubo oposición al alumbrado de gas por su potencia explosiva. Sin embargo, la ventaja básica de más luz a menor precio no podía seguir ocultándose, por lo que se acabó desarrollando la industria durante el siglo XIX, teniendo su punto culminante alrededor de 1885.

Las antiguas compañías eléctricas se autonombraban compañías de iluminación, ya que el alumbrado constituía su único servicio. Sin embargo, muy pronto se encontró un problema técnico que aún prevalece: la carga que la compañía tenía que satisfacer comenzaba al anochecer, se mantenía casi constante en las primeras horas de la noche, y después caía de forma precipitada a las 11 p.m., aproximadamente, a un 50% o menos. Era evidente que se tenía un complicado sistema, que permanecía ocioso o al menos infrautilizado la mayor parte del tiempo. En este caso, ¿se podrían encontrar otras aplicaciones que ocuparan las etapas de inactividad? Ya se conocía el motor eléctrico, y la existencia de un substituto eléctrico era un incentivo para su mejoramiento y aceptación comercial.

El uso de potencia eléctrica motora llegó a ser popular con rapidez y se le dieron muchas aplicaciones. Debido a sus funciones cada vez más extensas, las compañías comenzaron a nombrarse compañías de luz y fuerza. Surgió otro problema técnico: los incrementos de carga se tradujeron en incremento de corriente, lo que causó caídas de tensión que eran inaceptables si las plantas generadoras estaban ubicadas a grandes distancias de las cargas. El hecho de mantener los generadores cerca de las cargas llegó a ser cada vez más difícil, ya que los lugares adecuados para la generación frecuentemente no estaban disponibles. Se sabía que la potencia eléctrica era proporcional al producto del voltaje y la corriente. Es decir, se obtendría menor corriente a mayor voltaje. Desgraciadamente, no era deseable un voltaje más alto desde cualquiera de los dos puntos de vista. El tecnológico y la seguridad del cliente.

Lo que se requería era transmitir la potencia a un voltaje más alto a través de grandes distancias, y después cambiarlo a valores menores en los sitios de carga. La clave era diseñar un dispositivo que pudiese transformar niveles de corriente y voltaje de forma fiable y eficiente.

En la década de 1890, la compañía Westinghouse, recién constituida, experimentó una nueva forma de electricidad, denominada corriente alterna (AC), inspirada en el hecho de que la corriente invierte alternativamente el sentido del flujo en sincronismo con el generador rotatorio. Esta novedad tenía muchas ventajas inherentes; por ejemplo, se eliminaron los problemas de conmutación, propios de los generadores de DC, lo que dio lugar a controversias entre Edison, de la nueva compañía General Electric, y la Westinghouse, para definir si la industria debía establecer normas sobre AC o DC. Finalmente triunfó la corriente alterna, por las siguientes razones: - El transformador de AC podía satisfacer el requerimiento necesario de cambiar fácilmente los niveles de voltaje y corriente. - El generador de AC era más sencillo. - Los motores de AC, sin ser versátiles, eran más sencillos y más baratos.

Una vez que se estandarizó la AC, apareció prácticamente el concepto de estación central y desaparecieron los problemas de las cargas lejanas. Este tipo de compañías tuvieron cada vez mayor número de clientes, ya que la mayor parte del incremento de carga se podía manejar sin que hubiera necesidad de incrementar la inversión del capital; se abarató el costo por unidad de energía, lo que atrajo aún más clientes. Las empresas eléctricas locales se extendieron en tal forma que compartieron sus límites. Esta ventaja operativa fue aparente; como las cargas en sistemas adyacentes no necesariamente alcanzaban su máximo al mismo tiempo, ¿por qué no interconectar los sistemas y satisfacer las condiciones de carga pico con la generación de potencia combinada?.

Ya se conocían estas ventajas de interconectar diferentes lugares generadores y cargas; por tanto, este paso sería una extensión lógica del principio y una mejor utilización del equipo correspondiente. Inmediatamente surgió un problema técnico; en aquel tiempo, estaban en uso muchas frecuencias diferentes incluyendo DC, y AC de 25, 50, 60 125 y 133 Hz (en 1900).

Como los sistemas interconectados debían operar a la misma frecuencia, se requerían equipos de conversión de frecuencia de alto coste. Fue evidente el incentivo para estandarizar las frecuencias. En aquel tiempo, las unidades generadoras de las cataratas del Niágara y otras instalaciones hidroeléctricas usaban 25 Hz, ya que las hidroturbinas se podían diseñar para operar con mayor rendimiento a estas velocidades mecánicas; este fue un fuerte apoyo para usar esa frecuencia. El problema con 25 Hz radicaba en el hecho de que producía un parpadeo perceptible en las lámparas incandescentes. Eventualmente se adoptó una frecuencia mayor, de 60 Hz, como norma en Estados Unidos, ya que poseía características eléctricas aceptables y porque las turbinas de vapor trabajaban satisfactoriamente a las correspondientes velocidades mecánicas de 3600 y 1800 rev / min.

El progreso tecnológico en el diseño de aparatos de potencia continuó: cuando una empresa extendía sus sistemas, los nuevos generadores y transformadores comprados eran invariablemente de mayor capacidad y rendimiento. Se desarrollaron mejores lámparas eléctricas, proporcionando al cliente más luz por unidad de energía. Con la constante baja en el coste de la energía, la selección de motores eléctricos como propulsores mecánicos llegó a ser muy popular para toda clase de aplicaciones.

Por todo lo expuesto, la electricidad constituye, hoy por hoy, una de las manifestaciones energéticas más difundidas, tanto por su facilidad de generación, transporte y consumo como por sus numerosas aplicaciones y conversión en otras formas de energía (mecánica y térmica, principalmente). No obstante, no está todo solucionado en el campo eléctrico. Actualmente el gran problema que se plantea es la imposibilidad de almacenar energía eléctrica en su forma alterna no existiendo métodos realmente eficaces para conseguirlo de forma definitiva y en grandes cantidades.

Un sistema eléctrico, es un sistema capaz de generar, transportar y consumir energía eléctrica. Por ejemplo, una linterna, con su batería (generador), sus hilos (transporte), y su bombilla (carga), constituye un ejemplo sencillo de sistema eléctrico. Un sistema eléctrico de potencia es un sistema con generación, transporte y consumo de energía eléctrica, pero en grandes cantidades (millones de vatios), a grandes distancias (cientos de km), y con grandes consumos (millones de vatios).

Actualmente los grandes sistemas eléctricos son las redes de interconexión más importantes que se conocen, ya que llegan prácticamente a todos los confines del mundo.

Cronología histórica de la electricidad

A continuación se exponen algunas fechas y nombres relevantes que han contribuido al desarrollo y evolución de la electricidad a lo largo de la historia.

  • 600 AC: Tales de Mileto (624-548 a.c.) descubre que si se frota el ámbar, éste atrae a los objetos más livianos.
  • 1800: Alessandro Volta (1745-1827) descubre la pila eléctrica.
  • 1819: Hans Oersted (1777-1851) descubre el efecto magnético de la corriente eléctrica, probando que la electricidad puede producir magnetismo.
  • 1821: Michael Faraday (1791-1867) describe el principio de la dinamo.
  • 1827: André Marie Ampère (1775-1836) descubre las leyes que relacionan la fuerza magnética con la corriente eléctrica.
  • 1827: George Ohm (1789-1854) establece la ley de la resistencia eléctrica.
  • 1831: Michael Faraday descubre la inducción electromagnética, confirmando así que el magnetismo puede producir electricidad.
  • 1832: Michael Faraday introduce el concepto de campo electromagnético.
  • 1837: Thomas Davenport patenta el primer motor eléctrico de corriente continua.
  • 1838: Robert Anderson inventa el primer vehículo eléctrico práctico.
  • 1864: James Clerk Maxwell desarrolla las ecuaciones de Maxwell, que unifican el electromagnetismo y describen las ondas electromagnéticas, sentando las bases de la teoría electromagnética.
  • 1873: James Clerk Maxwell predice la existencia de las ondas electromagnéticas, incluyendo las ondas de radio.
  • 1879: Thomas Alva Edison inventa la lámpara eléctrica.
  • 1880: En Londres comienza a funcionar la primera central eléctrica destinada a iluminar una ciudad.
  • 1881: Lucien Gaulard y John Dixon Gibbs desarrollan el primer transformador eléctrico.
  • 1887: Se inicia el sistema de iluminación eléctrico en la ciudad de Buenos Aires.
  • 1895: Nikola Tesla realiza demostraciones de transmisión inalámbrica de energía.
  • 1901: Guglielmo Marconi realiza la primera transmisión de señales de radio a través del océano Atlántico.
  • 1908: Heike Kammerlingh Onnes (1853-1926) descubre el principio de la superconducción.
  • 1939: Igor Sikorsky inventa el primer helicóptero eléctrico.
  • 1954: El primer reactor nuclear de producción de energía eléctrica se pone en funcionamiento en Obninsk, Rusia.
  • 1971: Intel lanza el primer microprocesador, el Intel 4004, que marca el comienzo de la era de los ordenadores personales.
  • 1991: Tim Berners-Lee crea la World Wide Web, revolucionando la forma en que se comparte información y se accede a ella.

History of Electricity - Chronology

Electricity

History of Electricity

The electrical or electrostatic properties of certain materials were already known to ancient civilizations. Around 600 B.C., the philosopher and scientist Thales of Miletus had confirmed that when amber was rubbed, it attracted lighter objects towards it. It was believed that electricity resided in the rubbed object. Hence, the term 'electricity' comes from the Greek word 'elecktron', meaning amber. In the ancient Roman world, a mineral was exploited that also had the property of attracting certain materials (metallic ones); this mineral was named magnetite, highly valued in antiquity precisely for its unique characteristics. But it wasn't until the Renaissance that the first methodological studies began, in which electricity was closely related to magnetism.

Before 1800, the study of electrical and magnetic phenomena interested only a few scientists, such as W. Gilbert, C. A. de Coulomb, L. Galvani, Otto Von Guericke, Benjamin Franklin, and Alessandro Volta. Some others made significant contributions to the still insufficient and fragmented knowledge of electricity, but at that time, its applications were not yet known, and the studies were only motivated by simple intellectual curiosity. People illuminated their homes with candles, lamps fueled by whale oil and petroleum, and motive power was generally provided by people or draft animals.

The Englishman William Gilbert found that some substances behaved like amber; when rubbed, they attracted lightweight objects, while others showed no attraction. He named the former—such as glass, sulfur, and resin—'electric', and the latter—like copper or silver—'non-electric'.

In the early 19th century, Count Alessandro Volta built a galvanic cell. He placed layers of zinc, paper, and copper, discovering that if the zinc base was connected to the final copper layer, it produced an electric current that flowed through the connecting wire. This simple device was the prototype of electric cells, accumulators, and all electric current produced until the appearance of the dynamo.

Meanwhile, George Simon Ohm laid the foundations for the study of the flow of electric charges inside conducting materials, formulating his law, which related resistance to intensity and voltage—three of the four most important quantities in electricity.

In 1819, Hans Christian Oersted discovered that a magnetic needle hung by a thread deviated from its initial position when an electric current passed nearby, positing that electric currents produced a magnetic effect. From this simple observation came electric telegraph technology. Based on this, André Marie Ampère deduced that electric currents should behave in the same way as magnets. Ampère's discovery led Michael Faraday to suppose that a current flowing near a circuit would induce another current in it. The result of his experiment was that this only occurred when the current began and ceased to flow in the first circuit. He replaced the current with a magnet and found that its movement near the circuit induced a current. He thus verified that the mechanical work used to move a magnet could be transformed into an electric current.

By the mid-19th century, the distinction between insulating and conducting materials was established. Insulators were those Gilbert considered electric, while conductors were the non-electric ones. This allowed the construction of the first rudimentary storage device: it consisted of two conducting plates separated by an insulating sheet. It was known as the Leyden jar, named after the city where the invention was made. During this same period, there were impressive advances in the understanding of electrical and magnetic phenomena. Humphry Davy, André Marie Ampère, G.S. Ohm, and Karl Gauss made significant discoveries, but the fundamental discovery that elevated the concept of electricity from an interesting scientific phenomenon to a great technology with far-reaching social implications was achieved independently by researchers Michael Faraday and Joseph Henry.

Ampère and others had already observed that magnetic fields were generated by electric currents; however, none had discovered how electric currents could be obtained from magnetic fields. Faraday worked on this from 1821 to 1831, achieving success by formulating the law that bears his name. He later built a voltage-generating machine based on the principles of magnetic induction. Now there was a source of electricity that rivaled (and exceeded by far) the possibilities of the voltaic pile and Leyden jars.

James Prescott Joule discovered the causes of energy losses. Through Joule's law, formulated in 1841, which states that the amount of heat released by a conductor when an electric current passes through it is directly proportional to the square of the current intensity, the resistance of the conductor, and the time during which the current flows, expressed as: Q = kI2Rt, where k is a proportionality constant that depends on the unit system used. Several researchers, including Carl Siemens, Wheatstone, Varley, Gramme, applied the principles of induction in the construction of primitive electric generators between 1840 and 1870. Almost simultaneously, a phenomenon discovered a few years earlier attracted special attention as a practical light source. It was observed that when two electrodes conducted current while remaining separated, an electric arc of intense brightness formed between them.

Faraday's experiments were mathematically expressed by James Clerk Maxwell, who in 1873 presented his equations, unifying the description of electrical and magnetic behaviors and their propagation through space in the form of waves.

In 1878, Thomas Alva Edison began experiments that, a year later, led to the invention of the electric lamp, which would universalize the use of electricity. Since the first electric power station for illuminating a city began operating in London in 1880, the applications of this form of energy gradually expanded. In Buenos Aires, the electric system began with the appearance of the General Electric Company of Buenos Aires in 1887.

In 1882, the first system for selling electric power for incandescent lighting was installed in the USA. The system used direct current (DC), with three 220/110 V cables, and powered a load of Edison lamps with a total requirement of 30 KW of power. These and other advanced systems were the beginning of what would become one of the world's largest industries.

Between 1800 and 1810, commercial gas lighting companies were founded, first in Europe and shortly after in the United States. There was opposition to gas lighting due to its explosive power. However, the basic advantage of more light at a lower price could not be ignored, leading to the development of the industry during the 19th century, reaching its peak around 1885.

The old electric companies called themselves lighting companies, as lighting was their only service. However, a technical problem soon emerged that still prevails: the load that the company had to meet started at dusk, remained almost constant in the early evening hours, and then dropped steeply around 11 p.m., to 50% or less. It was evident that there was a complex system that remained idle or at least underutilized most of the time. In this case, could other applications be found to occupy the idle stages? The electric motor was already known, and the existence of an electrical substitute was an incentive for its improvement and commercial acceptance.

The use of electric power became popular rapidly and found many applications. Due to its increasingly extensive functions, companies began to call themselves light and power companies. Another technical problem arose: load increases translated into current increases, causing voltage drops that were unacceptable if the generating plants were located at great distances from the loads. Keeping the generators close to the loads became increasingly difficult since suitable locations for generation were often unavailable. It was known that electric power was proportional to the product of voltage and current. In other words, less current would be obtained at higher voltage. Unfortunately, a higher voltage was not desirable from either standpoint: technological or customer safety.

What was needed was to transmit power at higher voltages over long distances and then change it to lower values at the load sites. The key was to design a device that could reliably and efficiently transform current and voltage levels.

In the 1890s, the newly established Westinghouse Company experimented with a new form of electricity, called alternating current (AC), inspired by the fact that the current alternated the direction of flow in sync with the rotary generator. This novelty had many inherent advantages; for example, it eliminated the commutation problems inherent in DC generators, leading to controversies between Edison of the new General Electric company and Westinghouse to define whether the industry should establish standards for AC or DC. Ultimately, alternating current triumphed for the following reasons: - The AC transformer could easily change voltage and current levels as needed. - The AC generator was simpler. - AC motors, while less versatile, were simpler and cheaper.

Once AC was standardized, the concept of a central station practically emerged, and the problems of distant loads disappeared. These kinds of companies had an increasing number of clients since most of the load increase could be handled without the need to increase capital investment; the cost per unit of energy was reduced, attracting even more customers. Local electric companies expanded to the extent that they shared their boundaries. This operational advantage was apparent; since loads in adjacent systems did not necessarily peak at the same time, why not interconnect the systems and meet peak load conditions with combined power generation?

The advantages of interconnecting different generating locations and loads were already known; therefore, this step would be a logical extension of the principle and a better utilization of the corresponding equipment. Immediately, a technical problem arose: at that time, many different frequencies were in use, including DC and AC of 25, 50, 60, 125, and 133 Hz (in 1900).

As interconnected systems had to operate at the same frequency, expensive frequency conversion equipment was required. There was an incentive to standardize frequencies. At that time, the generating units of the Niagara Falls and other hydroelectric installations used 25 Hz, as hydro turbines could be designed to operate more efficiently at these mechanical speeds; this was strong support for using that frequency. The problem with 25 Hz was that it produced noticeable flickering in incandescent lamps. Eventually, a higher frequency of 60 Hz was adopted as the norm in the United States because it had acceptable electrical characteristics, and steam turbines worked satisfactorily at corresponding mechanical speeds of 3600 and 1800 rpm.

Technological progress in the design of power apparatus continued: when a company expanded its systems, the new generators and transformers purchased were invariably of greater capacity and performance. Better electric lamps were developed, providing customers with more light per unit of energy. With the constant reduction in the cost of energy, the selection of electric motors as mechanical propellers became very popular for all kinds of applications.

Given all this, electricity is today one of the most widespread energy manifestations, both for its ease of generation, transport, and consumption and for its numerous applications and conversion into other forms of energy (mainly mechanical and thermal). However, not everything is solved in the field of electricity. Currently, the big problem is the inability to store alternating electric energy in a definitive and large-scale manner.

An electrical system is a system capable of generating, transporting, and consuming electric energy. For example, a flashlight, with its battery (generator), wires (transport), and bulb (load), constitutes a simple example of an electrical system. A power electrical system is a system with the generation, transport, and consumption of electric energy but in large quantities (millions of watts), over long distances (hundreds of kilometers), and with high consumptions (millions of watts).

Currently, the largest interconnected power systems known practically reach every corner of the world.

Historical Chronology of Electricity

Below are some relevant dates and names that have contributed to the development and evolution of electricity throughout history.

600 BC: Thales of Miletus (624-548 BC) discovers that if amber is rubbed, it attracts lighter objects.

1800: Alessandro Volta (1745-1827) discovers the electric cell.

1819: Hans Oersted (1777-1851) discovers the magnetic effect of electric current, proving that electricity can produce magnetism.

1821: Michael Faraday (1791-1867) describes the principle of the dynamo.

1827: André Marie Ampère (1775-1836) discovers the laws relating magnetic force to electric current.

1827: George Ohm (1789-1854) establishes the law of electrical resistance.

1831: Michael Faraday discovers electromagnetic induction, confirming that magnetism can produce electricity.

1832: Michael Faraday introduces the concept of the electromagnetic field.

1837: Thomas Davenport patents the first direct current electric motor.

1838: Robert Anderson invents the first practical electric vehicle.

1864: James Clerk Maxwell develops Maxwell's equations, which unify electromagnetism and describe electromagnetic waves, laying the foundations of electromagnetic theory.

1873: James Clerk Maxwell predicts the existence of electromagnetic waves, including radio waves.

1879: Thomas Alva Edison invents the electric lamp.

1880: The first electric power station for illuminating

1881: Lucien Gaulard and John Dixon Gibbs developed the first electrical transformer.

1887: The electric lighting system began in the city of Buenos Aires.

1895: Nikola Tesla demonstrated wireless transmission of energy.

1901: Guglielmo Marconi made the first transmission of radio signals across the Atlantic Ocean.

1908: Heike Kamerlingh Onnes (1853-1926) discovered the principle of superconductivity.

1939: Igor Sikorsky invented the first electric helicopter.

1954: The first nuclear reactor for electricity production began operating in Obninsk, Russia.

1971: Intel launched the first microprocessor, the Intel 4004, marking the beginning of the era of personal computers.

1991: Tim Berners-Lee created the World Wide Web, revolutionizing how information is shared and accessed.

 

Historie de l'électricité. Chronologie.

L'électricité

Histoire de l'électricité

Les propriétés électriques ou électrostatiques de certains matériaux étaient déjà connues des civilisations anciennes. Vers 600 av. J.-C., le philosophe et scientifique Thalès de Milet avait observé que si l'on frottait de l'ambre, celui-ci attirait des objets plus légers vers lui. On croyait que l'électricité résidait dans l'objet frotté. C'est pourquoi le terme électricité provient du mot grec "elecktron", qui signifie ambre. Dans les domaines de l'ancienne Rome, un minéral était déjà exploité et avait également la propriété d'attirer certains matériaux (les métaux) ; ce minéral était appelé magnétite, très apprécié dans l'antiquité précisément pour ses caractéristiques particulières. Mais ce n'est qu'à l'époque de la Renaissance que les premières études méthodiques ont commencé, dans lesquelles l'électricité était étroitement liée au magnétisme.

Avant l'an 1800, l'étude des phénomènes électriques et magnétiques n'intéressait que quelques scientifiques, tels que W. Gilbert, C. A. de Coulomb, L. Galvani, Otto Von Guericke, Benjamin Franklin ou Alessandro Volta. Quelques autres ont apporté d'importantes contributions à la connaissance encore insuffisante et fragmentée de l'électricité, mais à cette époque, ses applications n'étaient pas encore connues et les études n'étaient motivées que par une simple curiosité intellectuelle. Les populations éclairaient leurs foyers avec des bougies, des lampes alimentées à l'huile de baleine et au pétrole, et la puissance motrice était généralement fournie par des personnes ou des animaux de trait.

L'Anglais William Gilbert a constaté que certaines substances se comportaient comme de l'ambre et, lorsqu'elles étaient frottées, attiraient des objets légers, tandis que d'autres n'exerçaient aucune attraction. Il appelait les premières, parmi lesquelles il classait le verre, le soufre et la résine, électriques, tandis que les secondes, comme le cuivre ou l'argent, étaient anélectriques.

Au début du XIXe siècle, le comte Alessandro Volta a construit une pile galvanique. Il a placé des couches de zinc, de papier et de cuivre, et a découvert que si la base en zinc était connectée à la dernière couche de cuivre, le résultat était un courant électrique circulant à travers le fil de jonction. Cet appareil simple était le prototype des piles électriques, des accumulateurs et de tout courant électrique produit jusqu'à l'apparition de la dynamo.

Pendant ce temps, George Simon Ohm a posé les bases de l'étude de la circulation des charges électriques à l'intérieur des matériaux conducteurs, en postulant sa loi, dans laquelle la résistance était liée à l'intensité et à la tension, soit trois des quatre grandeurs les plus importantes de l'électricité.

En 1819, Hans Christian Oersted a découvert qu'une aiguille magnétique suspendue à un fil s'éloignait de sa position initiale lorsqu'une courant électrique passait à proximité, et a postulé que les courants électriques produisaient un effet magnétique. Cette simple observation a donné naissance à la technologie du télégraphe électrique. Sur cette base, André Marie Ampère a déduit que les courants électriques devaient se comporter de la même manière que les aimants. La découverte d'Ampère a conduit Michael Faraday à supposer qu'un courant circulant près d'un circuit induirait un autre courant en lui. Le résultat de son expérience fut que cela ne se produisait qu'au début et à la fin du flux de courant dans le premier circuit. Il a remplacé le courant par un aimant et a constaté que son mouvement à proximité du circuit induisait un courant en celui-ci. Il a ainsi pu vérifier que le travail mécanique utilisé pour déplacer un aimant pouvait se transformer en courant électrique.

Au milieu du XIXe siècle, une distinction a été établie entre les matériaux isolants et conducteurs. Les isolants étaient ceux que Gilbert avait considérés comme électriques, tandis que les conducteurs étaient les anélectriques. Cela a permis la construction du premier dispositif de stockage rudimentaire : il était constitué de deux plaques conductrices séparées par une feuille isolante. Il était connu sous le nom de bouteille de Leyden, en hommage à la ville où l'invention a été réalisée. Pendant cette même période, d'énormes progrès ont été réalisés dans la compréhension des phénomènes électriques et magnétiques. Humphrey Davy, André Marie Ampère, G.S. Ohm et Karl Gauss ont fait d'importantes découvertes, mais la découverte qui a finalement élevé le concept de l'électricité en tant que phénomène scientifique intéressant à une grande technologie aux implications sociales considérables a été réalisée indépendamment par les chercheurs Michael Faraday et Joseph Henry.

Ampère et d'autres avaient déjà observé que les champs magnétiques étaient générés par des courants électriques; cependant, aucun n'avait découvert comment obtenir des courants électriques à partir de champs magnétiques. Faraday a travaillé de 1821 à 1831 pour réussir à formuler la loi qui porte son nom. Par la suite, il a construit une machine génératrice de tension selon les principes de l'induction magnétique. Il disposait désormais d'une source d'électricité rivalisant (et dépassant de loin) les possibilités de la pile voltaïque et des bouteilles de Leyden.

James Prescott Joule a découvert la raison des pertes d'énergie. Par la loi de Joule, énoncée en 1841, selon laquelle la quantité de chaleur dégagée par un conducteur traversé par un courant électrique est proportionnelle au carré de l'intensité du courant, à la résistance de ce conducteur et au temps pendant lequel ce courant circule, selon l'expression : Q = kI2Rt, où k est une constante de proportionnalité dépendant du système d'unités utilisé.


Plusieurs chercheurs, dont Carl Siemens, Wheatstone, Varley et Gramme, ont appliqué les principes de l'induction dans la construction de générateurs électriques primitifs entre 1840 et 1870. Presque simultanément, un phénomène découvert quelques années auparavant a attiré une attention particulière en tant que source lumineuse pratique. On a observé que lorsque deux électrodes conduisaient du courant et étaient maintenues séparées, un arc électrique d'une luminosité intense se formait entre elles.

Les expériences de Faraday ont été formalisées mathématiquement par James Maxwell, qui a présenté ses équations en 1873, unifiant la description des comportements électriques et magnétiques ainsi que leur propagation dans l'espace sous forme d'ondes.

En 1878, Thomas Alva Edison a commencé des expériences qui ont abouti, un an plus tard, à l'invention de la lampe électrique, qui a rendu l'utilisation de l'électricité universelle. Depuis la mise en service de la première centrale électrique destinée à éclairer la ville de Londres en 1880, les applications de cette forme d'énergie se sont progressivement étendues. À Buenos Aires, le système électrique a débuté avec la création de la Compañía General Eléctrica Ciudad de Buenos Aires en 1887.

En 1882, le premier système de vente d'énergie électrique pour l'éclairage à incandescence a été installé aux États-Unis. Le système était en courant continu (CC), avec trois câbles 220/110 V, et alimentait un ensemble de lampes Edison ayant un besoin total de 30 kW de puissance. Ces systèmes avancés ont été le début de ce qui allait devenir l'une des plus grandes industries au monde.

Entre 1800 et 1810, des sociétés commerciales d'éclairage au gaz ont été fondées, d'abord en Europe puis peu après aux États-Unis. Il y avait une opposition à l'éclairage au gaz en raison de sa puissance explosive. Cependant, l'avantage fondamental d'obtenir plus de lumière à moindre coût ne pouvait être ignoré, ce qui a conduit au développement de l'industrie tout au long du XIXe siècle, culminant vers 1885.

Les anciennes compagnies d'électricité s'appelaient elles-mêmes des compagnies d'éclairage, car l'éclairage constituait leur seul service. Cependant, un problème technique persistait : la charge que la compagnie devait satisfaire commençait au crépuscule, restait presque constante dans les premières heures de la nuit, puis chutait brusquement vers 23 heures, à environ 50 % ou moins. Il était évident que le système était complexe, restant inactif ou sous-utilisé la majeure partie du temps. Dans ce cas, pourrait-on trouver d'autres applications pour occuper les périodes d'inactivité ? On connaissait déjà le moteur électrique, et son existence était un incitatif pour son amélioration et son acceptation commerciale.

L'utilisation de la puissance motrice électrique est devenue rapidement populaire et a trouvé de nombreuses applications. En raison de ses fonctions de plus en plus étendues, les entreprises ont commencé à se nommer des sociétés de lumière et de force. Un autre problème technique est apparu : les augmentations de charge se sont traduites par une augmentation de courant, entraînant des chutes de tension inacceptables si les centrales électriques étaient situées à de grandes distances des charges. Le maintien des générateurs près des charges est devenu de plus en plus difficile, car les emplacements appropriés pour la génération n'étaient souvent pas disponibles. On savait que la puissance électrique était proportionnelle au produit de la tension et du courant. Autrement dit, on obtiendrait moins de courant à une tension plus élevée. Malheureusement, une tension plus élevée n'était souhaitable ni d'un point de vue technologique ni pour la sécurité du client.

Ce qui était nécessaire était de transmettre la puissance à une tension plus élevée sur de longues distances, puis de la réduire à des valeurs inférieures aux sites de charge. La clé était de concevoir un dispositif capable de transformer les niveaux de courant et de tension de manière fiable et efficace.

Dans les années 1890, la société Westinghouse, nouvellement créée, a expérimenté une nouvelle forme d'électricité, appelée courant alternatif (CA), inspirée par le fait que le courant inverse alternativement le sens du flux en synchronisation avec le générateur rotatif. Cette nouveauté présentait de nombreux avantages intrinsèques : par exemple, elle éliminait les problèmes de commutation propres aux générateurs CC, ce qui a donné lieu à des controverses entre Edison, de la nouvelle compagnie General Electric, et Westinghouse, pour définir si l'industrie devait établir des normes pour le CA ou le CC. Finalement, le courant alternatif l'a emporté, pour les raisons suivantes : - Le transformateur de CA pouvait répondre au besoin de changer facilement les niveaux de tension et de courant. - Le générateur de CA était plus simple. - Les moteurs de CA, bien qu'étant moins polyvalents, étaient plus simples et moins chers.

Une fois le CA standardisé, le concept de centrale électrique centrale est apparu et les problèmes liés aux charges distantes ont disparu. Ce type de compagnies a attiré de plus en plus de clients, car la majeure partie de l'augmentation de charge pouvait être gérée sans avoir besoin d'augmenter l'investissement en capital ; le coût par unité d'énergie a diminué, attirant encore plus de clients. Les entreprises locales d'électricité se sont étendues au point de partager leurs limites. Cet avantage opérationnel était évident ; comme les charges dans les systèmes adjacents n'atteignaient pas nécessairement leur maximum en même temps, pourquoi ne pas interconnecter les systèmes et répondre aux conditions de charge maximale avec une production d'énergie combinée ?

Ces avantages de l'interconnexion entre différents sites générateurs et charges étaient connus ; par conséquent, cette étape était une extension logique du principe et une meilleure utilisation de l'équipement correspondant. Un problème technique est immédiatement apparu ; à cette époque, de nombreuses fréquences différentes étaient utilisées, y compris le CC, et le CA de 25, 50, 60, 125 et 133 Hz (en 1900).

Comme les systèmes interconnectés devaient fonctionner à la même fréquence, des équipements de conversion de fréquence coûteux étaient nécessaires. Il était évident qu'il y avait un incitatif à normaliser les fréquences. À cette époque, les unités de production des chutes du Niagara et d'autres installations hydroélectriques utilisaient 25 Hz, car les turbines hydrauliques pouvaient être conçues pour fonctionner avec un rendement supérieur à ces vitesses mécaniques ; cela a été un fort argument pour utiliser cette fréquence. Le problème avec le 25 Hz résidait dans le fait qu'il produisait un scintillement perceptible dans les lampes à incandescence. Finalement, une fréquence plus élevée, de 60 Hz, a été adoptée comme norme aux États-Unis, car elle présentait des caractéristiques électriques acceptables et les turbines à vapeur fonctionnaient bien aux vitesses mécaniques correspondantes de 3600 et 1800 tr/min.

Le progrès technologique dans la conception des appareils de puissance a continué : lorsqu'une entreprise étendait ses systèmes, les nouveaux générateurs et transformateurs achetés étaient systématiquement de plus grande capacité et plus performants. De meilleures lampes électriques ont été développées, offrant aux clients plus de lumière par unité d'énergie. Avec la baisse constante du coût de l'énergie, la sélection de moteurs électriques comme propulseurs mécaniques est devenue très populaire pour toutes sortes d'applications.

Ainsi exposée, l'électricité constitue aujourd'hui l'une des manifestations énergétiques les plus répandues, tant par sa facilité de production, de transport et de consommation que par ses nombreuses applications et sa conversion en d'autres formes d'énergie (principalement mécanique et thermique). Cependant, tout n'est pas résolu dans le domaine de l'électricité. Actuellement, le grand problème est l'impossibilité de stocker l'énergie électrique sous sa forme alternative, car il n'existe pas de méthodes vraiment efficaces pour le faire de manière définitive et en grandes quantités.

Un système électrique est un système capable de générer, transporter et consommer de l'énergie électrique. Par exemple, une lampe de poche, avec sa batterie (générateur), ses fils (transport) et son ampoule (charge), constitue un exemple simple de système électrique. Un système électrique de puissance est un système avec génération, transport et consommation d'énergie électrique, mais en grandes quantités (millions de watts), sur de longues distances (des centaines de km) et avec de grandes demandes (millions de watts).

Actuellement, les grands systèmes électriques sont les réseaux d'interconnexion les plus importants connus, car ils atteignent pratiquement tous les coins du monde.

Chronologie historique de l'électricité

Voici quelques dates et noms importants qui ont contribué au développement et à l'évolution de l'électricité tout au long de l'histoire.

600 av. J.-C. : Thalès de Milet (624-548 av. J.-C.) découvre que si de l'ambre est frotté, il attire les objets les plus légers.

1800 : Alessandro Volta (1745-1827) découvre la pile électrique.

1819 : Hans Oersted (1777-1851) découvre l'effet magnétique du courant électrique, prouvant que l'électricité peut produire du magnétisme.

1821 : Michael Faraday (1791-1867) décrit le principe de la dynamo.

1827 : André Marie Ampère (1775-1836) découvre les lois qui relient la force magnétique au courant électrique.

1827 : George Ohm (1789-1854) établit la loi de la résistance électrique.

1831 : Michael Faraday découvre l'induction électromagnétique, confirmant ainsi que le magnétisme peut produire de l'électricité.

1832 : Michael Faraday introduit le concept de champ électromagnétique.

1837 : Thomas Davenport brevète le premier moteur électrique à courant continu.

1838 : Robert Anderson invente le premier véhicule électrique pratique.

1864 : James Clerk Maxwell développe les équations de Maxwell, qui unifient l'électromagnétisme et décrivent les ondes électromagnétiques, posant les bases de la théorie électromagnétique.

1873 : James Clerk Maxwell prédit l'existence des ondes électromagnétiques, y compris les ondes radio.

1879 : Thomas Alva Edison invente la lampe électrique.

1880 : La première centrale électrique destinée à éclairer une ville commence à fonctionner à Londres.

1881 : Lucien Gaulard et John Dixon Gibbs développent le premier transformateur électrique.

1887 : Le système d'éclairage électrique débute dans la ville de Buenos Aires.

1895 : Nikola Tesla réalise des démonstrations de transmission sans fil d'énergie.

1901 : Guglielmo Marconi effectue la première transmission de signaux radio à travers l'océan Atlantique.

1908 : Heike Kammerlingh Onnes (1853-1926) découvre le principe de la supraconductivité.

1939 : Igor Sikorsky invente le premier hélicoptère électrique.

1954 : Le premier réacteur nucléaire de production d'énergie électrique est mis en service à Obninsk, en Russie.

1971 : Intel lance le premier microprocesseur, l'Intel 4004, marquant le début de l'ère des ordinateurs personnels.

1991 : Tim Berners-Lee crée le World Wide Web, révolutionnant la manière dont l'information est partagée et accédée.

 

 


 

 

 
Volver arriba