take .png files generated from .svg out of version control
[light-and-matter.git] / sn / ch05 / ch05.rbtex
blobc9ce2fbeecdd95ca609d2668c00bbee635672f41
1 <%
2   require "../eruby_util.rb"
3 %>
4 <%
5   chapter(
6     '05',
7     %q{Thermodynamics},
8     'ch:thermo',
9     '',
10     {'opener'=>''}
11   )
14 \epigraphlong{$S=k \log W$}{Inscription on the tomb of Ludwig Boltzmann, 1844-1906.
15 Boltzmann originated the microscopic theory of thermodynamics.}
17 In a developing country like China, a refrigerator is the
18 mark of a family that has arrived in the middle class, and a
19 car is the ultimate symbol of wealth. Both of these
20 are \emph{heat engines}: devices for 
21 converting between heat and other
22 forms of energy.\index{heat engine}\index{engine!heat}
23 Unfortunately for the Chinese, neither is a very efficient
24 device. Burning fossil fuels has made China's big cities the
25 most polluted on the planet, and the country's total energy
26 supply isn't sufficient to support American levels of energy
27 consumption by more than a small fraction of China's
28 population. Could we somehow manipulate
29 energy in a more efficient way?
31 Conservation of energy is a statement that the total amount of
32 energy is constant at all times, which encourages us to
33 believe that any energy transformation can be undone ---
34 indeed, the laws of physics you've learned so far don't even
35 distinguish the past from the future.
36 If you get in a car and drive around the block,
37 the net effect is to consume some of the energy you paid
38 for at the gas station,  using it to heat the neighborhood.
39 There would not seem to be any fundamental physical principle
40 to prevent you from recapturing all that heat and using it again
41 the next time you want to go for a drive. More modestly,
42 why don't engineers design a car engine so that
43 it recaptures the heat
44 energy that would otherwise be wasted via
45 the radiator and the exhaust?
47 Hard experience, however, has shown that designers of more
48 and more efficient engines run into a brick wall at a
49 certain point. The generators that the electric company uses
50 to produce energy at an oil-fueled plant are indeed much
51 more efficient than a car engine, but even if one is willing
52 to accept a device that is very large, expensive, and
53 complex, it turns out to be impossible to make a perfectly
54 efficient heat engine --- not just impossible with present-day
55 technology, but impossible due to a set of fundamental physical
56 principles known as the science of \emph{thermodynamics}.\index{thermodynamics}
57 And thermodynamics isn't just a pesky set of constraints on 
58 heat engines. Without thermodynamics, there is no way to explain
59 the direction of time's arrow --- why we can remember the past
60 but not the future, and why it's easier to break Humpty Dumpty than
61 to put him back together again.
63 <% begin_sec("Pressure and Temperature",0) %>\index{pressure}\index{temperature}
64 When we heat an object, we speed up the mind-bogglingly
65 complex random motion of its molecules. One method for
66 taming complexity is the conservation laws, since they tell
67 us that certain things must remain constant regardless of
68 what process is going on. Indeed, the law of conservation of
69 energy is also known as the first law of thermodynamics.\index{thermodynamics!first law of}\label{first-law-of-thermodynamics}
71 But as alluded to in the introduction to this chapter,
72 conservation of energy by itself is not powerful enough to
73 explain certain empirical facts about heat. A second way to
74 sidestep the complexity of heat is to ignore heat's
75 atomic nature and concentrate on quantities like
76 temperature and pressure that tell us about a system's
77 properties as a whole. This approach is called
78 macroscopic in contrast to the microscopic method of attack.
79 Pressure and temperature were fairly well understood in the
80 age of Newton and Galileo, hundreds of years before there
81 was any firm evidence that atoms and molecules even existed.
83 Unlike the conserved quantities such as mass, energy, momentum,
84 and angular momentum, neither pressure nor temperature is
85 additive. Two cups of coffee have twice the heat
86 energy of a single cup, but they do not have twice the
87 temperature. Likewise, the painful pressure on your eardrums
88 at the bottom of a pool is not affected if you insert or
89 remove a partition between the two halves of the pool.
91 We restrict ourselves to a discussion of pressure in fluids
92 at rest and in equilibrium. In physics, the term ``fluid''
93 is used to mean either a gas or a liquid. The important
94 feature of a fluid can be demonstrated by comparing with a
95 cube of jello on a plate. The jello is a solid. If you shake
96 the plate from side to side, the jello will respond by
97 shearing, i.e., by slanting its sides, but it will tend to
98 spring back into its original shape. A solid can sustain
99 shear forces, but a fluid cannot. A fluid does not resist a
100 change in shape unless it involves a change in volume.
102 <% begin_sec("Pressure") %>
103 If you're at the bottom of a pool, you can't relieve the
104 pain in your ears by turning your head. The water's
105 force on your eardrum is always the same, and is always
106 perpendicular to the surface where the eardrum contacts the water. If your
107 ear is on the east side of your head, the water's force is
108 to the west. If you keep your ear in the same spot while turning
109 around so your ear is on the north, the force will still be the same in
110 magnitude, and it will change its direction so that it is
111 still perpendicular to the eardrum: south. This shows that
112 pressure has no direction in space, i.e., it is a scalar. The direction
113 of the force is determined by the orientation of the surface on which
114 the pressure acts, not by the pressure itself. A fluid flowing over a surface can also
115 exert frictional forces, which are parallel to the surface, but the present
116 discussion is restricted to fluids at rest.
118 Experiments also show that a fluid's force on a surface is
119 proportional to the surface area. The vast force of the water
120 behind a dam, for example, in proportion to the
121 dam's great surface area. (The bottom of the dam experiences
122 a higher proportion of its force.)
124 Based on these experimental results, it appears that the
125 useful way to define pressure is as follows.
126 The pressure of a fluid at a given point is defined as $F_\perp/A$,
127 where $A$ is the area of a small surface inserted in the fluid
128 at that point, and $F_\perp$ is the component of the fluid's force on
129 the surface which is perpendicular to the surface.
130 (In the case of a moving fluid,
131 fluid friction forces can act parallel to the
132 surface, but we're only dealing with stationary fluids, so there is
133 only an $F_\perp$.)
135 <% marg(30) %>
137   fig(
138     'pressuregauge',
139     %q{%
140       A simple pressure gauge consists of a cylinder open at one
141       end, with a piston and a spring inside. The depth to which
142       the spring is depressed is a measure of the pressure. To
143       determine the absolute pressure, the air needs to be pumped
144       out of the interior of the gauge, so that there is no air
145       pressure acting outward on the piston. In many practical
146       gauges, the back of the piston is open to the atmosphere, so
147       the pressure the gauge registers equals the pressure of the
148       fluid minus the pressure of the atmosphere.
149     }
150   )
152 <% end_marg %>
153 This is essentially how a pressure gauge works. The reason
154 that the surface must be small is so that there will not be
155 any significant difference in pressure between one part of it
156 and another part.  The SI units
157 of pressure are evidently $\nunit/\munit^2$, and this combination
158 can be abbreviated as the pascal, 1 Pa=1 $\nunit/\munit^2$.\index{pascal!unit} The
159 pascal turns out to be an inconveniently small unit, so car
160 tires, for example, normally have pressures imprinted on
161 them in units of kilopascals.
163 \begin{eg}{Pressure in U.S. units}
164 In U.S. units, the unit of force is the pound, and the unit
165 of distance is the inch. The unit of pressure is therefore
166 pounds per square inch, or p.s.i. (Note that the pound is
167 not a unit of mass.)
168 \end{eg}
170 \begin{eg}{Atmospheric pressure in U.S. and metric units}
171 \egquestion
172 A figure that many people in the U.S. remember is
173 that atmospheric pressure is about 15 pounds per square
174 inch. What is this in metric units?
176 \eganswer
177 \begin{align*}
178         (\text{15 lb})/(\text{1 in}^2)
179                 &= \frac{68\ \nunit}{(0.0254\ \munit)^2}\\
180                  &=   1.0\times10^5\ \nunit/\munit^2 \\
181                  &=  100\ \zu{kPa}
182 \end{align*}
183 \end{eg}
185 <% begin_sec("Only pressure differences are normally significant.") %>
186 If you spend enough time on an airplane,
187 the pain in your ears subsides. This is because your body
188 has gradually been able to admit more air into the cavity
189 behind the eardrum. Once the pressure inside is equalized
190 with the pressure outside, the inward and outward forces on
191 your eardrums cancel out, and there is no physical sensation
192 to tell you that anything unusual is going on. For this
193 reason, it is normally only pressure differences that have
194 any physical significance. Thus deep-sea fish are perfectly
195 healthy in their habitat because their bodies have enough
196 internal pressure to cancel the pressure from the water in
197 which they live; if they are caught in a net and brought to
198 the surface rapidly, they explode because their internal
199 pressure is so much greater than the low pressure outside.
201 \begin{eg}{Getting killed by a pool pump}
202 \egquestion
203 My house has a pool, which I maintain myself. A
204 pool always needs to have its water circulated through a
205 filter for several hours a day in order to keep it clean.
206 The filter is a large barrel with a strong clamp that holds
207 the top and bottom halves together. My filter has a
208 prominent warning label that warns me not to try to open the
209 clamps while the pump is on, and it shows a cartoon of a
210 person being struck by the top half of the pump. The
211 cross-sectional area of the filter barrel is 0.25 $\zu{m}^2$. Like
212 most pressure gauges, the one on my pool pump actually reads
213 the difference in pressure between the pressure inside the
214 pump and atmospheric pressure. The gauge reads 90 kPa. What
215 is the force that is trying to pop open the filter?
217 \eganswer
218 If the gauge told us the absolute pressure of the
219 water inside, we'd have to find the force of the water
220 pushing outward and the force of the air pushing inward, and
221 subtract in order to find the total force. Since air
222 surrounds us all the time, we would have to do such a
223 subtraction every time we wanted to calculate anything
224 useful based on the gauge's reading. The manufacturers of
225 the gauge decided to save us from all this work by making it
226 read the difference in pressure between inside and outside,
227 so all we have to do is multiply the gauge reading by the
228 cross-sectional area of the filter:
229 \begin{align*}
230          F         &=  PA\\
231                         &=  (90\times10^3\ \nunit/\munit^2)( 0.25\ \munit^2)\\                        &= 22000\ \nunit
232 \end{align*}
233 That's a lot of force!
234 \end{eg}
236 The word ``suction'' and other related words contain a
237 hidden misunderstanding related to this point about pressure
238 differences. When you suck
239 water up through a straw, there is nothing in your mouth
240 that is attracting the water upward. The force that lifts
241 the water is from the pressure of the water in the cup. By
242 creating a partial vacuum in your mouth, you decreased the
243 air's downward force on the water so that it no longer
244 exactly canceled the upward force.
246 <% end_sec() %>
247 <% begin_sec("Variation of pressure with depth") %>
248 The pressure within a fluid in equilibrium can only depend
249 on depth, due to gravity. If the pressure could vary from
250 side to side, then a piece of the fluid in between, \figref{sidetoside},
251 would be subject to unequal forces from the parts of the
252 fluid on its two sides. Since fluids do not exhibit shear
253 forces, there would be no other force that could keep this
254 piece of fluid from accelerating. This contradicts the
255 assumption that the fluid was in equilibrium.
257 <% marg(0) %>
259   fig(
260     'sidetoside',
261     %q{%
262       This doesn't happen. If pressure could vary horizontally
263       in equilibrium, the cube of water would accelerate
264       horizontally. This is a contradiction, since we assumed the
265       fluid was in equilibrium.
266     }
267   )
269 \spacebetweenfigs
271   fig(
272     'funkycontainer',
273     %q{%
274       The pressure is the same at all the points marked with
275       dots.
276     }
277   )
279 \spacebetweenfigs
281   fig(
282     'toptobottom',
283     %q{%
284       This does happen. The sum of the forces from the
285       surrounding parts of the fluid is upward, canceling the
286       downward force of gravity.
287     }
288   )
290 <% end_marg %>
291 <% self_check('solidspressureside',<<-'SELF_CHECK'
292 How does this proof fail for solids?
293   SELF_CHECK
294   ) %>
296 To find the variation with depth, we consider the vertical
297 forces acting on a tiny, imaginary cube of the fluid having infinitesimal
298 height $\der y$ and areas $\der A$ on the top and bottom. Using positive
299 numbers for upward forces, we have
300 \begin{align*}
301         P_{bottom}\der A - P_{top}\der A - F_g  =  0 \qquad .
302 \end{align*}
303 The weight of the fluid is $F_g = mg = \rho Vg = \rho\der A\der y\:g$, where $\rho$ is
304 the density of the fluid, so the difference in pressure is
305 \begin{multline*}
306         \der P  =  -\rho g \der y \qquad . 
307 \hfill\shoveright{\text{[variation in pressure with depth for}}\\
308 \hfill\shoveright{\text{a fluid of density $\rho$ in equilibrium;}}\\
309 \hfill\shoveright{\text{positive $y$ is up.]}}
310 \end{multline*}
311 A more elegant way of writing this is in terms
312 of a dot product, $\der P = \rho\vc{g}\cdot\der\vc{y}$, which automatically
313 takes care of the plus or minus sign, depending on the relative
314 directions of the \vc{g} and $\der\vc{y}$ vectors, and avoids
315 any requirements about the coordinate system.
317 The factor of $\rho$ explains why we notice the difference in
318 pressure when diving 3 m down in a pool, but not when going
319 down 3 m of stairs. The equation only tells us the
320 difference in pressure, not the absolute pressure. The
321 pressure at the surface of a swimming pool equals the
322 atmospheric pressure, not zero, even though the depth is
323 zero at the surface. The blood in your body does not even
324 have an upper surface.
326 In cases where $g$ and $\rho$ are independent of depth, we can
327 integrate both sides of the equation to get everything in terms of
328 finite differences rather than differentials: $\Delta P  =  -\rho g \Delta y$.
330 <% self_check('pressureconst',<<-'SELF_CHECK'
331 In which of the following situations is the equation 
332 $\Delta  P  =  -\rho  g \Delta  y$ valid? Why?\\
333 (1) difference in pressure between a tabletop and the feet
334 (i.e., predicting the pressure of the feet on the floor)\\
335 (2) difference in air pressure between the top and bottom of
336 a tall building\\
337 (3) difference in air pressure between the top and bottom of
338 Mt. Everest\\
339 (4) difference in pressure between the top of the earth's
340 mantle and the center of the earth\\
341 (5) difference in pressure between the top and bottom of an
342 airplane's wing
343   SELF_CHECK
344   ) %>
346 \begin{eg}{Pressure of lava underneath a volcano}
347 \egquestion
348 A volcano has just finished erupting, and a pool
349 of molten lava is lying at rest in the crater. The lava has
350 come up through an opening inside the volcano that connects
351 to the earth's molten mantle. The density of the lava is 4.1
352 $\zu{g}/\zu{cm}^3$. What is the pressure in the lava underneath the base
353 of the volcano, 3000 m below the surface of the pool?
355 \eganswer
356 \begin{align*}
357         \Delta P         &=  \rho g\Delta y\\
358                         &= ( 4.1\ \zu{g}/\zu{cm}^3)( 9.8\ \munit/\sunit^2)(3000\ \zu{m})\\
359                         &= ( 4.1\times10^6\ \zu{g}/\zu{m}^3)
360                                         ( 9.8\ \munit/\sunit^2)(3000\ \zu{m})\\
361                         &= ( 4.1\times10^3\ \zu{kg}/\zu{m}^3)
362                                         ( 9.8\ \munit/\sunit^2)(3000\ \zu{m})\\
363                         &= 1.2\times10^8\ \nunit/\munit^2 \\
364                         &= 1.2\times10^8\ \zu{Pa}
365 \end{align*}
366 This is the difference between the pressure we want to find and
367 atmospheric pressure at the surface. The latter, however, is tiny compared
368 to the $\Delta P$ we just calculated, so what we've found is essentially the
369 pressure, $P$.
370 \end{eg}
372 \begin{eg}{Atmospheric pressure}
373 Gases, unlike liquids, are quite compressible, and at a given temperature, the
374 density of a gas is approximately proportional to the pressure. The proportionality
375 constant is discussed on page \pageref{subsec:pvnrt}, but for now let's just
376 call it $k$, $\rho= kP$. Using this fact, we can find the variation of
377 atmospheric pressure with altitude, assuming constant temperature:
378 \begin{align*}
379         \der P &= -\rho g\der y\\
380         \der P &= - kPg\der y\\
381         \frac{\der P}{ P} &= - kg\der y\\
382         \zu{ln}\: P &= - kgy+\text{constant} \qquad \text{[integrating both sides]}\\
383          P &= (\text{constant}) e^{- kgy} \qquad \text{[exponentiating both sides]}
384 \end{align*}
385 Pressure falls off exponentially with height. There is no sharp cutoff to the
386 atmosphere, but the exponential factor gets extremely small by the time you're
387 ten or a hundred miles up.
388 \end{eg}
390  % 
391 <% end_sec() %>
392 <% end_sec() %>
393 <% marg(10) %>
395   fig(
396     'fever',
397     %q{%
398       We have to wait for the thermometer to equilibrate its
399       temperature with the temperature of Irene's armpit.
400     }
401   )
403 <% end_marg %>
404 <% begin_sec("Temperature") %>
405 <% begin_sec("Thermal equilibrium") %>
406 We use the term temperature casually, but what is it
407 exactly? Roughly speaking, temperature is a measure of how
408 concentrated the heat energy is in an object. A large,
409 massive object with very little heat energy in it has a low
410 temperature.
412 But physics deals with operational definitions, i.e.,
413 definitions of how to measure the thing in question. How do
414 we measure temperature? One common feature of all
415 temperature-measuring devices is that they must be left for
416 a while in contact with the thing whose temperature is being
417 measured. When you take your temperature with a fever
418 thermometer, you are waiting for the mercury inside to come
419 up to the same temperature as your body. The thermometer
420 actually tells you the temperature of its own working fluid
421 (in this case the mercury). In general, the idea of
422 temperature depends on the concept of thermal equilibrium.
423 When you mix cold eggs from the refrigerator with flour that
424 has been at room temperature, they rapidly reach a
425 compromise temperature. What determines this compromise
426 temperature is conservation of energy, and the amount of
427 energy required to heat or cool each substance by one
428 degree. But without even having constructed a temperature
429 scale, we can see that the important point is the phenomenon
430 of thermal equilibrium itself: two objects left in contact
431 will approach the same temperature. We also assume that if
432 object A is at the same temperature as object B, and B is at
433 the same temperature as C, then A is at the same temperature
434 as C. This statement is sometimes known as the zeroth law of
435 thermodynamics,\index{thermodynamics!zeroth law of}\label{zeroth-law-of-thermodynamics}
436 so called because after the first, second, and third
437 laws had been developed, it was realized that there was
438 another law that was even more fundamental.
440 <% marg(10) %>
442   fig(
443     'otters',
444     %q{%
445       Thermal equilibrium can be prevented. Otters
446       have a coat of fur that traps air bubbles for insulation.
447       If a swimming otter was in thermal equilibrium with cold water, it would be dead.
448       Heat is still conducted from the otter's body to the water, but much more slowly than
449       it would be in a warm-blooded animal that didn't have this special adaptation.
450     }
451   )
453 \spacebetweenfigs
455   fig(
456     'hot-air-balloon',
457     %q{%
458       A hot air balloon is inflated. Because of thermal
459       expansion, the hot air is less dense than the surrounding cold air, and
460       therefore floats as the cold air drops underneath it and pushes it up
461       out of the way.
462     }
463   )
465 <% end_marg %>
466 <% end_sec() %>
467 <% begin_sec("Thermal expansion") %>
468 The familiar mercury thermometer operates on the principle
469 that the mercury, its working fluid, expands when heated and
470 contracts when cooled. In general, all substances expand and
471 contract with changes in temperature. The zeroth law of
472 thermodynamics guarantees that we can construct a
473 comparative scale of temperatures that is independent of
474 what type of thermometer we use. If a thermometer gives a
475 certain reading when it's in thermal equilibrium with
476 object A, and also gives the same reading for object B, then
477 A and B must be the same temperature, regardless of the
478 details of how the thermometers works.
480 What about constructing a temperature scale in which every
481 degree represents an equal step in temperature? The Celsius
482 scale has 0 as the freezing point of water and 100 as its
483 boiling point. The hidden assumption behind all this is that
484 since two points define a line, any two thermometers that
485 agree at two points must agree at all other points. In
486 reality if we calibrate a mercury thermometer and an alcohol
487 thermometer in this way, we will find that a graph of one
488 thermometer's reading versus the other is not a perfectly
489 straight $y=x$ line. The subtle inconsistency becomes a
490 drastic one when we try to extend the temperature scale
491 through the points where mercury and alcohol boil or freeze.
492 Gases, however, are much more consistent among themselves in
493 their thermal expansion than solids or liquids, and the
494 noble gases like helium and neon are more consistent with
495 each other than gases in general. Continuing to search for
496 consistency, we find that noble gases are more consistent
497 with each other when their pressure is very low.
499 As an idealization, we imagine a gas in which the atoms interact only
500 with the sides of the container, not with each other. Such a gas is perfectly
501 nonreactive (as the noble gases very nearly are), and never
502 condenses to a liquid (as the noble gases do only at
503 extremely low temperatures). Its atoms take up a negligible
504 fraction of the available volume. Any gas can be made to behave very much
505 like this if the pressure is extremely low, so that the atoms hardly ever
506 encounter each other. Such a gas is called an ideal gas, and we define
507 the Celsius scale in terms of the volume of the gas in a thermometer
508 whose working substance is an ideal gas maintained at a
509 fixed (very low) pressure, and which is calibrated at 0 and
510 100 degrees according to the melting and boiling points of
511 water. The Celsius scale is not just a comparative scale but
512 an additive one as well: every step in temperature is equal,
513 and it makes sense to say that the difference in temperature
514 between 18 and $28\degcunit$ is the same as the difference between 48
515 and 58.
517 <% marg(90) %>
519   fig(
520     'gasthermometer',
521     %q{%
522       A simplified version of an ideal gas thermometer. The
523       whole instrument is allowed to come into thermal equilibrium
524       with the substance whose temperature is to be measured, and
525       the mouth of the cylinder is left open to standard pressure.
526       The volume of the noble gas gives an indication of
527       temperature.
528     }
529   )
531 \spacebetweenfigs
533   fig(
534     'abszeroextrap',
535     %q{%
536       The volume of 1 kg of neon gas as a function of
537       temperature (at standard pressure). Although neon would
538       actually condense into a liquid at some point, extrapolating
539       the graph gives to zero volume gives the same temperature as
540       for any other gas: absolute zero.
541     }
542   )
544 <% end_marg %>
546 <% end_sec() %>
547 <% begin_sec("Absolute zero and the Kelvin scale") %>
548 We find that if we extrapolate a graph of volume versus
549 temperature, the volume becomes zero at nearly the same
550 temperature for all gases: -273\degcunit. Real gases will all
551 condense into liquids at some temperature above this, but an
552 ideal gas would achieve zero volume at this temperature,
553 known as absolute zero. The most useful temperature scale in
554 scientific work is one whose zero is defined by absolute
555 zero, rather than by some arbitrary standard like the
556 melting point of water. The temperature scale used
557 universally in scientific work, called the Kelvin scale, is
558 the same as the Celsius scale, but shifted by 273 degrees to
559 make its zero coincide with absolute zero. Scientists use
560 the Celsius scale only for comparisons or when a change in
561 temperature is all that is required for a calculation. Only
562 on the Kelvin scale does it make sense to discuss ratios of
563 temperatures, e.g., to say that one temperature is twice as
564 hot as another.\index{temperature!macroscopic definition}
565 \index{temperature!Celsius}\index{temperature!Kelvin}\index{temperature!absolute zero}
566 \index{thermometer}\index{Celsius (unit)}\index{kelvin (unit)}
568 \begin{eg}{Which temperature scale to use}
569 \egquestion
570 You open an astronomy book and encounter the
571 equation
572 \begin{equation*}
573         (\text{light emitted}) = (\text{constant}) \times  T^ 4
574 \end{equation*}
575 for the light emitted by a star as a function of its surface
576 temperature. What temperature scale is implied?
578 \eganswer
579 The equation tells us that doubling the
580 temperature results in the emission of 16 times as much
581 light. Such a ratio only makes sense if the Kelvin scale is
582 used.
583 \end{eg}
585 Although we can achieve as good an approximation to an ideal
586 gas as we wish by making the pressure very low, it seems
587 nevertheless that there should be some more fundamental way
588 to define temperature. We will construct a more fundamental
589 scale of temperature in section \ref{sec:mic-entropy}.
591 <% end_sec() %>
592 <% end_sec() %>
593 \startdqs
595 \begin{dq}\label{dq:heat-cond-propto}
596 Figure \subfigref{dq-heat-cond-propto}{1} shows objects 1 and 2, each with a certain temperature $T$
597 and a certain amount of thermal energy $E$. They are connected by a
598 thin rod, so that eventually they will reach thermal equilibrium.
599 We expect that the rate at which heat is transferred into object 1
600 will be given by some equation $\der E_1/\der t=k(\ldots)$, where
601 $k$ is a positive constant of proportionality and ``$\ldots$'' is some expression that depends
602 on the temperatures. Suppose that the following six forms are
603 proposed for ``\ldots:''
604 \begin{enumerate}
605 \item $T_1$
606 \item $T_2$
607 \item $T_1-T_2$
608 \item $T_2-T_1$
609 \item $T_1/T_2$
610 \item $T_2/T_1$
611 \end{enumerate}
612 Give physical reasons why five of these are not possible.
613 \end{dq}
614 <% marg(100) %>
616   fig(
617     'dq-heat-cond-propto',
618     %q{%
619       Discussion questions \ref{dq:heat-cond-propto}-\ref{dq:heat-cond-series}.
620     }
621   )
623 <% end_marg %>
625 \begin{dq}
626 How should the rate of heat conduction in \subfigref{dq-heat-cond-propto}{2} compare with
627 the rate in \subfigref{dq-heat-cond-propto}{1}?
628 \end{dq}
630 \begin{dq}\label{dq:heat-cond-series}
631 The example in \subfigref{dq-heat-cond-propto}{3} is different from the preceding ones
632 because when we add the third object in the middle, we don't necessarily know the intermediate temperature. We could
633 in fact set up this third object with any desired initial temperature.
634 Suppose, however, that the flow of heat is \emph{steady}. For example, the $36\degunit$ object could
635 be a human body, the $0\degunit$ object could be the air on a cold day, and the object in between could
636 be a simplified physical model of the insulation provided by clothing or
637 body fat. Under this assumption, what is the intermediate temperature?
638 How does the rate of heat conduction compare in the two cases?
639 \end{dq}
641 \begin{dq}
642 Based on the conclusions of questions \ref{dq:heat-cond-propto}-\ref{dq:heat-cond-series}, how should the rate
643 of heat conduction through an object depend on its length and cross-sectional area? If all the linear dimensions
644 of the object are doubled, what happens to the rate of heat conduction through it? How would this apply if we
645 compare an elephant to a shrew?
646 \end{dq}
648 <% end_sec %>
649 <% begin_sec("Microscopic Description of an Ideal Gas",nil,'microscopicidealgas') %>
650 <% begin_sec("Evidence for the kinetic theory") %>
651 Why does matter have the thermal properties it does? The
652 basic answer must come from the fact that matter is made of
653 atoms.
654 How, then, do the atoms give rise to the bulk properties we
655 observe? Gases, whose thermal properties are so simple,
656 offer the best chance for us to construct a simple
657 connection between the microscopic and macroscopic worlds.
659 A crucial observation is that although solids and liquids
660 are nearly incompressible, gases can be compressed, as when
661 we increase the amount of air in a car's tire while hardly
662 increasing its volume at all. This makes us suspect that the
663 atoms in a solid are packed shoulder to shoulder, while a
664 gas is mostly vacuum, with large spaces between molecules.
665 Most liquids and solids have densities about 1000 times
666 greater than most gases, so evidently each molecule in a gas
667 is separated from its nearest neighbors by a space something
668 like 10 times the size of the molecules themselves.
670 If gas molecules have nothing but empty space between them,
671 why don't the molecules in the room around you just fall to
672 the floor? The only possible answer is that they are in
673 rapid motion, continually rebounding from the walls, floor
674 and ceiling. In section \ref{atomicphenomenasection}
675  I have already given some of the evidence for
676 the kinetic theory of heat, which states that heat is the kinetic energy of
677 randomly moving molecules. This theory was proposed by
678 Daniel Bernoulli in 1738, and met with considerable
679 opposition because it seemed as though the molecules in a
680 gas would eventually calm down and settle into a thin film
681 on the floor. There was no precedent for this kind of
682 perpetual motion. No rubber ball, however elastic, rebounds
683 from a wall with exactly as much energy as it originally
684 had, nor do we ever observe a collision between balls in
685 which none of the kinetic energy at all is converted to heat
686 and sound. The analogy is a false one, however. A rubber
687 ball consists of atoms, and when it is heated in a
688 collision, the heat is a form of motion of those atoms. An
689 individual molecule, however, cannot possess heat. Likewise
690 sound is a form of bulk motion of molecules, so colliding
691 molecules in a gas cannot convert their kinetic energy to
692 sound. Molecules can indeed induce vibrations such as sound
693 waves when they strike the walls of a container, but the
694 vibrations of the walls are just as likely to impart energy
695 to a gas molecule as to take energy from it. Indeed, this
696 kind of exchange of energy is the mechanism by which the
697 temperatures of the gas and its container become
698 equilibrated.
700  % 
701 <% end_sec() %>
702 <% begin_sec("Pressure, volume, and temperature",nil,'pvnrt') %>
703 A gas exerts pressure on the walls of its container, and in
704 the kinetic theory we interpret this apparently constant
705 pressure as the averaged-out result of vast numbers of
706 collisions occurring every second between the gas molecules
707 and the walls. The empirical facts about gases can be
708 summarized by the relation
709 \begin{equation*}
710         PV \propto nT   , \qquad \text{[ideal gas]}
711 \end{equation*}
712 which really only holds exactly for an ideal gas. Here $n$ is
713 the number of molecules in the sample of gas.
715 \begin{eg}{Volume related to temperature}
716 The proportionality of volume to temperature at fixed
717 pressure was the basis for our definition of temperature.
718 \end{eg}
720 \begin{eg}{Pressure related to temperature}
721 Pressure is proportional to temperature when volume is held
722 constant. An example is the increase in pressure in a car's
723 tires when the car has been driven on the freeway for a
724 while and the tires and air have become hot.
725 \end{eg}
727 We now connect these empirical facts to the kinetic theory
728 of a classical ideal gas. For simplicity, we assume that the gas is
729 monoatomic (i.e., each molecule has only one atom), and that
730 it is confined to a cubical box of volume $V$, with $L$ being
731 the length of each edge and $A$ the area of any wall. An atom
732 whose velocity has an $x$ component $v_x$ will collide regularly
733 with the left-hand wall, traveling a distance $2L$ parallel to
734 the $x$ axis between collisions with that wall. The time between collisions
735 is $\Delta t=2L/v_x$, and in each collision the $x$ component of
736 the atom's momentum is reversed from $-mv_x$  to $mv_x$. The total
737 force on the wall is
738 \begin{equation*}
739         F =  \sum \frac{\Delta p_{x,i}}{\Delta t_i}  \qquad \text{[monoatomic ideal gas]} \qquad ,
740 \end{equation*}
741 where the index $i$ refers to the individual atoms.
742 Substituting $\Delta p_{x,i}=2mv_{x,i}$ and $\Delta t_i=2L/v_{x,i}$, we
743 have
744 \begin{equation*}
745                 F        =  \sum \frac{mv_{x,i}^2}{L} \qquad \text{[monoatomic ideal gas]} \qquad .
746 \end{equation*}
747 The quantity $mv_{x,i}^2$ is twice the contribution to the
748 kinetic energy from the part of the atoms' center of mass
749 motion that is parallel to the $x$ axis. Since we're assuming
750 a monoatomic gas, center of mass motion is the only type of
751 motion that gives rise to kinetic energy. (A more complex
752 molecule could rotate and vibrate as well.) If the quantity
753 inside the sum included the $y$ and $z$ components, it would be
754 twice the total kinetic energy of all the molecules. Since we expect
755 the energy to be equally shared among $x$, $y$, and $z$ motion,\footnote{This equal sharing will be justified more
756 rigorously on page \pageref{equipartition}.} the quantity
757 inside the sum must therefore equal 2/3 of the total kinetic
758 energy, so
759 \begin{equation*}
760         F        =   \frac{2K_{total}}{3L} \qquad \text{[monoatomic ideal gas]} \qquad .
761 \end{equation*}
762 Dividing by $A$ and using $AL=V$, we have
763 \begin{equation*}
764         P        =   \frac{2K_{total}}{3V} \qquad \text{[monoatomic ideal gas]} \qquad .
765 \end{equation*}
766 This can be connected to the empirical relation $PV \propto nT$ if we
767 multiply by $V$ on both sides and rewrite $K_{total}$ as $n\bar{K}$,
768 where $\bar{K}$ is the average kinetic energy per
769 molecule:
770 \begin{equation*}
771         PV        =          \frac{2}{3}n\bar{K} \qquad \text{[monoatomic ideal gas]} \qquad .
772 \end{equation*}
773 For the first time we have an interpretation of
774 temperature based on a microscopic description of matter: in
775 a monoatomic ideal gas, the temperature is a measure of the
776 average kinetic energy per molecule. The proportionality
777 between the two is $\bar{K}=(3/2)kT$, where the constant of
778 proportionality $k$, known as Boltzmann's constant, has a
779 numerical value of $1.38\times10^{-23}\ \junit/\kunit$. In terms of
780 Boltzmann's constant, the relationship among the bulk
781 quantities for an ideal gas becomes
782 \begin{equation*}
783         PV        =  nkT \qquad , \qquad \text{[ideal gas]}
784 \end{equation*}
785 which is known as the ideal gas law. \index{ideal gas law}\index{Boltzmann's constant}
786 Although I won't prove it here, this equation applies to all ideal gases, even
787 though the derivation assumed a monoatomic ideal gas in a cubical box.
788  (You may have seen it
789 written elsewhere as $PV=NRT$, where $N=n/N_A$ is the number of
790 moles of atoms, $R=kN_A$, and $N_A=6.0\times10^{23}$, called
791 Avogadro's number, is essentially the number of hydrogen
792 atoms in 1 g of hydrogen.)\index{Avogadro's number}
794 \begin{eg}{Pressure in a car tire}
795 \egquestion
796 After driving on the freeway for a while, the air
797 in your car's tires heats up from $10\degcunit$ to $35\degcunit$. How much
798 does the pressure increase?
800 \eganswer
801 The tires may expand a little, but we assume this
802 effect is small, so the volume is nearly constant. From the
803 ideal gas law, the ratio of the pressures is the same as the
804 ratio of the absolute temperatures,
805 \begin{align*}
806           P_2/ P_1
807                 &= T_2/ T_1\\
808                 &=(308\ \kunit)/(283\ \kunit)\\
809                 &= 1.09 \qquad ,\\
810 \end{align*}
811 or a 9\% increase.
812 \end{eg}
814 \startdqs
816 \begin{dq}\label{dq:he-xe}
817 Compare the amount of energy needed to heat 1 liter of helium by 1 degree with the energy needed
818 to heat 1 liter of xenon. In both cases, the heating is carried out in a sealed vessel that doesn't
819 allow the gas to expand. (The vessel is also well insulated.)
820 \end{dq}
821  % 
822 \begin{dq}
823 Repeat  discussion question \ref{dq:he-xe} if the comparison is 1 kg of helium versus 1 kg of xenon (equal
824 masses, rather than equal volumes).
825 \end{dq}
826  % 
827 \begin{dq}
828 Repeat  discussion question \ref{dq:he-xe}, but now compare 1 liter of helium in a vessel of
829 constant volume with the same amount of helium in a vessel that allows expansion beyond the initial
830 volume of 1 liter. (This could be a piston, or a balloon.)
831 \end{dq}
832 <% end_sec() %>
833 <% end_sec() %>
835 \pagebreak
837 <% begin_sec("Entropy as a Macroscopic Quantity") %>
838 <% begin_sec("Efficiency and grades of energy",0) %>
839 Some forms of energy are more convenient than others in
840 certain situations. You can't run a spring-powered
841 mechanical clock on a battery, and you can't run a
842 battery-powered clock with mechanical energy. However, there
843 is no fundamental physical principle that prevents you from
844 converting 100\% of the electrical energy in a battery into
845 mechanical energy or vice-versa. More efficient motors and
846 generators are being designed every year. In general, the
847 laws of physics permit perfectly efficient conversion within
848 a broad class of forms of energy.
850 Heat is different. Friction tends to convert other forms of
851 energy into heat even in the best lubricated machines. When
852 we slide a book on a table, friction brings it to a stop and
853 converts all its kinetic energy into heat, but we never
854 observe the opposite process, in which a book spontaneously
855 converts heat energy into mechanical energy and starts
856 moving! Roughly speaking, heat is different because it is
857 disorganized. Scrambling an egg is easy. Unscrambling it is
858 harder.
860 We summarize these observations by saying that heat is a
861 lower grade of energy than other forms such as mechanical
862 energy.
864 Of course it is possible to convert heat into other forms of
865 energy such as mechanical energy, and that is what a car
866 engine does with the heat created by exploding the air-gasoline
867 mixture. But a car engine is a tremendously inefficient
868 device, and a great deal of the heat is simply wasted
869 through the radiator and the exhaust. Engineers have never
870 succeeded in creating a perfectly efficient device for
871 converting heat energy into mechanical energy, and we now
872 know that this is because of a deeper physical principle
873 that is far more basic than the design of an engine.
875 \pagebreak[4]
878   fig(
879     'turbine',
880     %q{%
881       1. The temperature difference between the hot and cold
882       parts of the air can be used to extract mechanical energy,
883       for example with a fan blade that spins because of the
884       rising hot air currents.
885       2. If the temperature of the air is first allowed to become
886       uniform, then no mechanical energy can be extracted. The
887       same amount of heat energy is present, but it is no longer
888       accessible for doing mechanical work.
889     },
890     {
891       'width'=>'wide',
892       'sidecaption'=>true
893     }
894   )
897 <% end_sec() %>
898 <% begin_sec("Heat engines") %>
900 Heat may be more useful in some forms than in others, i.e.,
901 there are different grades of heat energy. In figure \figref{turbine}/1,
902 the difference in temperature can be used to extract
903 mechanical work with a fan blade. This principle is used in
904 power plants, where steam is heated by burning oil or by
905 nuclear reactions, and then allowed to expand through a
906 turbine which has cooler steam on the other side. On a
907 smaller scale, there is a Christmas toy, \figref{angel-chimes}, that consists of a
908 small propeller spun by the hot air rising from a set of
909 candles, very much like the setup shown in figure \figref{turbine}.
911 <% marg(43) %>
913   fig(
914     'angel-chimes',
915     %q{%
916       A heat engine. Hot air from the candles rises through the fan blades, and makes
917       the angels spin.
918     }
919   )
921 \spacebetweenfigs
923   fig(
924     'carnot',
925     %q{Sadi Carnot (1796-1832)}
926   )
928 <% end_marg %>
930 In figure \figref{turbine}/2, however, no mechanical work can be extracted
931 because there is no difference in temperature. Although the
932 air in \figref{turbine}/2 has the same total amount of energy as the air in
933 \figref{turbine}/1, the heat in \figref{turbine}/2 is a lower grade of energy, since
934 none of it is accessible for doing mechanical work.
936 In general, we define a heat engine as any device that takes
937 heat from a reservoir of hot matter, extracts some of the
938 heat energy to do mechanical work, and expels a lesser
939 amount of heat into a reservoir of cold matter. The
940 efficiency of a heat engine equals the amount of useful work
941 extracted, $W$, divided by the amount of energy we had to pay
942 for in order to heat the hot reservoir. This latter amount
943 of heat is the same as the amount of heat the engine
944 extracts from the high-temperature reservoir, $Q_H$. (The
945 letter $Q$ is the standard notation for a transfer of heat.)
946 By conservation of energy, we have $Q_H=W+Q_L$, where $Q_L$ is the
947 amount of heat expelled into the low-temperature reservoir,
948 so the efficiency of a heat engine, $W/Q_H$, can be rewritten
950 \begin{equation*}
951         \text{efficiency}        =  1-\frac{Q_L}{Q_H} \qquad . \qquad \text{[efficiency of any heat
952 engine]}
953 \end{equation*}
955 It turns out that there is a particular type of heat engine,
956 the Carnot engine,\index{Carnot engine}\index{engine!Carnot} which, although not 100\% efficient, is
957 more efficient than any other. The grade of heat energy in a
958 system can thus be unambiguously defined in terms of the
959 amount of heat energy in it that cannot be extracted even by
960 a Carnot engine.
962 How can we build the most efficient possible engine? Let's
963 start with an unnecessarily inefficient engine like a car
964 engine and see how it could be improved. The radiator and
965 exhaust expel hot gases, which is a waste of heat energy.
966 These gases are cooler than the exploded air-gas mixture
967 inside the cylinder, but hotter than the air that surrounds
968 the car. We could thus improve the engine's efficiency
969 by adding an auxiliary heat engine to it, which would
970 operate with the first engine's exhaust as its hot reservoir and the air as
971 its cold reservoir. In general, any heat engine that expels
972 heat at an intermediate temperature can be made more
973 efficient by changing it so that it expels heat only at the
974 temperature of the cold reservoir.
976 <% marg(100) %>
978   fig(
979     'carnota',
980     %q{%
981        The beginning of the first expansion stroke, in which
982       the working gas is kept in thermal equilibrium with the hot
983       reservoir.
984     }
985   )
987 \spacebetweenfigs
989   fig(
990     'carnotb',
991     %q{%
992       The beginning of the second expansion stroke, in which
993       the working gas is thermally insulated. The working gas
994       cools because it is doing work on the piston and thus losing
995       energy.
996     }
997   )
999 \spacebetweenfigs
1001   fig(
1002     'carnotc',
1003     %q{%
1004       The beginning of the first compression stroke. The
1005       working gas begins the stroke at the same temperature as the
1006       cold reservoir, and remains in thermal contact with it the
1007       whole time. The engine does negative work.
1008     }
1009   )
1011 \spacebetweenfigs
1013   fig(
1014     'carnotd',
1015     %q{%
1016       The beginning of the second compression stroke, in which
1017       mechanical work is absorbed, heating the working gas back up
1018       to $T_H$.
1019     }
1020   )
1022 <% end_marg %>
1024 Similarly, any heat engine that absorbs some energy at an
1025 intermediate temperature can be made more efficient by
1026 adding an auxiliary heat engine to it which will operate
1027 between the hot reservoir and this intermediate temperature.
1029 Based on these arguments, we define a Carnot engine as a
1030 heat engine that absorbs heat only from the hot reservoir
1031 and expels it only into the cold reservoir. Figures \figref{carnota}-\figref{carnotd}
1032 show a realization of a Carnot engine using a piston in a
1033 cylinder filled with a monoatomic ideal gas. This gas, known
1034 as the working fluid, is separate from, but exchanges energy
1035 with, the hot and cold reservoirs. 
1036 As proved on page \pageref{eg:carnot-efficiency},
1037 this particular Carnot engine has an
1038 efficiency given by
1039 \begin{equation*}
1040         \text{efficiency}        =  1 - \frac{T_L}{T_H}  \qquad , \qquad \text{[efficiency of a Carnot engine]} 
1041 \end{equation*}
1042 where $T_L$ is the temperature of the cold reservoir and $T_H$ is
1043 the temperature of the hot reservoir.
1045 Even if you do not wish to dig into the details of the
1046 proof, the basic reason for the temperature dependence is
1047 not so hard to understand. Useful mechanical work is done on
1048 strokes \figref{carnota} and \figref{carnotb}, in which the gas expands. The motion of
1049 the piston is in the same direction as the gas's force on
1050 the piston, so positive work is done on the piston. In
1051 strokes \figref{carnotc} and \figref{carnotd}, however, the gas does negative work on
1052 the piston. We would like to avoid this negative work, but
1053 we must design the engine to perform a complete cycle.
1054 Luckily the pressures during the compression strokes are
1055 lower than the ones during the expansion strokes, so the
1056 engine doesn't undo all its work with every cycle. The
1057 ratios of the pressures are in proportion to the ratios of
1058 the temperatures, so if $T_L$ is 20\% of $T_H$, the engine is 80\%
1059 efficient.
1061 We have already proved that any engine that is not a Carnot
1062 engine is less than optimally efficient, and it is also true
1063 that all Carnot engines operating between a given pair of
1064 temperatures $T_H$ and $T_L$ have the same efficiency. (This can be
1065 proved by the methods of section \ref{sec:mic-entropy}.) Thus a Carnot engine
1066 is the most efficient possible heat engine.
1068 <% end_sec() %>
1069 <% begin_sec("Entropy") %>
1070 We would like to have some numerical way of measuring the
1071 grade of energy in a system. We want this quantity, called
1072 entropy, to have the following two properties:
1074 <% marg(0) %>
1076   fig(
1077     'waterwheel',
1078     %q{%
1079       Entropy can be understood using the metaphor of a water
1080       wheel. Letting the water levels equalize is like letting the
1081       entropy maximize. Taking water from the high side and
1082       putting it into the low side increases the entropy. Water levels in this
1083       metaphor correspond to temperatures in the actual definition of entropy.
1084     }
1085   )
1087 <% end_marg %>
1088 (1) Entropy is additive. When we combine two systems and
1089 consider them as one, the entropy of the combined system
1090 equals the sum of the entropies of the two original systems.
1091 (Quantities like mass and energy also have this property.)
1093 (2) The entropy of a system is not changed by operating a
1094 Carnot engine within it.
1096 It turns out to be simpler and more useful to define changes
1097 in entropy than absolute entropies. Suppose as an example
1098 that a system contains some hot matter and some cold matter.
1099 It has a relatively high grade of energy because a heat
1100 engine could be used to extract mechanical work from it. But
1101 if we allow the hot and cold parts to equilibrate at some
1102 lukewarm temperature, the grade of energy has gotten worse.
1103 Thus putting heat into a hotter area is more useful than
1104 putting it into a cold area. Motivated by these
1105 considerations, we define a change in entropy as
1106 follows:\index{entropy!macroscopic definition}
1107 \begin{multline*}
1108         \Delta S  =  \frac{Q}{T}        \qquad \shoveright{\text{[change in entropy when adding}}\\                                                \shoveright{\text{heat $Q$ to matter at temperature $T$;}}\\
1109                                                 {\text{$\Delta S$ is negative if heat is taken out]}}
1110 \end{multline*}
1111 A system with a higher grade of energy has a lower entropy.
1113 \begin{eg}{Entropy is additive.}
1114 Since changes in entropy are defined by an additive quantity
1115 (heat) divided by a non-additive one (temperature), entropy
1116 is additive.
1117 \end{eg}
1119 \begin{eg}{Entropy isn't changed by a Carnot engine.}\label{eg:carnotnoentropychange}
1120 The efficiency of a heat engine is defined by
1121 \begin{equation*}
1122         \text{efficiency}  =  1 -  Q_L/ Q_H  \qquad  ,
1123 \end{equation*}
1124 and the efficiency of a Carnot engine is
1125 \begin{equation*}
1126         \text{efficiency}  =  1 -  T_L/ T_H \qquad  ,
1127 \end{equation*}
1128 so for a Carnot engine we have $Q_L/ Q_H =  T_L/ T_H$,
1129 which can be rewritten as
1130 $Q_L/ T_{L} =  Q_{H}/ T_H$.
1131 The entropy lost by the hot reservoir is therefore
1132 the same as the entropy gained by the cold one.
1133 \end{eg}
1135 \begin{eg}{Entropy increases in heat conduction.}
1136 When a hot object gives up energy to a cold one,
1137 conservation of energy tells us that the amount of heat lost
1138 by the hot object is the same as the amount of heat gained
1139 by the cold one. The change in entropy is $- Q/ T_{H}+ Q/ T_L$, which
1140 is positive because $ T_L< T_H$.
1141 \end{eg}
1143 \begin{eg}{Entropy is increased by a non-Carnot engine.}
1144 The efficiency of a non-Carnot engine is less than 1 -
1145 $ T_L/ T_H$, so $Q_L/ Q_{H} >  T_{L}/ T_H$
1146  and $Q_L/ T_{L} >  Q_{H}/ T_H$. This means that
1147 the entropy increase in the cold reservoir is greater than
1148 the entropy decrease in the hot reservoir.
1149 \end{eg}
1151 \begin{eg}{A book sliding to a stop}
1152 A book slides across a table and comes to a stop. Once it stops, all its
1153 kinetic energy has been transformed into heat. As the book and
1154 table heat up, their entropies both increase, so the total entropy increases
1155 as well.
1156 \end{eg}
1158 All of these examples involved closed systems, and in all of
1159 them the total entropy either increased or stayed the same. It
1160 never decreased. Here are two examples of schemes for
1161 decreasing the entropy of a closed system, with explanations
1162 of why they don't work.
1164 \begin{eg}{Using a refrigerator to decrease entropy?}
1165 \egquestion
1166 A refrigerator takes heat from a cold area and
1167 dumps it into a hot area. (1) Does this lead to a net
1168 decrease in the entropy of a closed system? (2) Could you
1169 make a Carnot engine more efficient by running a
1170 refrigerator to cool its low-temperature reservoir and
1171 eject heat into its high-temperature reservoir?
1173 \eganswer
1174 (1) No. The heat that comes off of the radiator
1175 coils is a great deal more than the heat the fridge removes from
1176 inside; the difference is what it costs to run your fridge.
1177 The heat radiated from the coils is so much more than the
1178 heat removed from the inside that the increase in the
1179 entropy of the air in the room is greater than the decrease
1180 of the entropy inside the fridge. The most efficient
1181 refrigerator is actually a Carnot engine running in reverse,
1182 which leads to neither an increase
1183 nor a decrease in entropy.
1185 (2) No. The most efficient refrigerator is a reversed Carnot
1186 engine. You will not achieve anything by running one Carnot
1187 engine in reverse and another forward. They will just cancel
1188 each other out.
1189 \end{eg}
1191 \begin{eg}{Maxwell's demon}
1192 \egquestion
1193 Maxwell imagined a pair of rooms, their air being initially in
1194 thermal equilibrium, having a partition across the middle
1195 with a tiny door. A miniscule demon is posted at the door
1196 with a little ping-pong paddle, and his duty is to try to
1197 build up faster-moving air molecules in room B and slower
1198 moving ones in room A. For instance, when a fast molecule is
1199 headed through the door, going from A to B, he lets it by,
1200 but when a slower than average molecule tries the same
1201 thing, he hits it back into room A. Would this decrease the
1202 total entropy of the pair of rooms?
1204 \eganswer
1205 No. The demon needs to eat, and we can think of his body as
1206 a little heat engine, and his metabolism is less efficient
1207 than a Carnot engine, so he ends up increasing the entropy
1208 rather than decreasing it.
1209 \end{eg}
1211 Observations such as these lead to the following hypothesis,
1212 known as the second law of thermodynamics:\index{thermodynamics!second law of}\label{second-law-of-thermodynamics}
1214 \begin{important}
1215 The entropy of a closed system always increases, or at best
1216 stays the same: $\Delta S\ge0$.
1217 \end{important}
1219 At present our arguments to support this statement may seem
1220 less than convincing, since they have so much to do with
1221 obscure facts about heat engines. In
1222 the following section we will find a more satisfying
1223 and fundamental explanation for the continual increase in entropy. 
1224 To emphasize the fundamental and universal nature of the second law,
1225 here are a few exotic examples.
1227 \begin{eg}{Entropy and evolution}
1228 A favorite argument of many creationists who don't believe
1229 in evolution is that evolution would violate the second law
1230 of thermodynamics: the death and decay of a living thing
1231 releases heat (as when a compost heap gets hot) and lessens
1232 the amount of energy available for doing useful work, while
1233 the reverse process, the emergence of life from nonliving
1234 matter, would require a decrease in entropy. Their argument
1235 is faulty, since the second law only applies to closed
1236 systems, and the earth is not a closed system. The earth is
1237 continuously receiving energy from the sun.
1238 \end{eg}
1240 \begin{eg}{The heat death of the universe}
1241 Living things have low entropy: to demonstrate this fact,
1242 observe how a compost pile releases heat, which then
1243 equilibrates with the cooler environment. We never observe
1244 dead things to leap back to life after sucking some heat
1245 energy out of their environments! The only reason life was
1246 able to evolve on earth was that the earth was not a closed
1247 system: it got energy from the sun, which presumably gained
1248 more entropy than the earth lost.
1250 \enlargethispage{-\baselineskip}
1252 Victorian philosophers spent a lot of time worrying about
1253 the heat death of the universe: eventually the universe
1254 would have to become a high-entropy, lukewarm soup, with no
1255 life or organized motion of any kind. Fortunately (?), we
1256 now know a great many other things that will make the
1257 universe inhospitable to life long before its entropy is
1258 maximized. Life on earth, for instance, will end when the
1259 sun evolves into a giant star and vaporizes our planet.
1260 \end{eg}
1262 \begin{eg}{Hawking radiation}\index{black hole}\index{Hawking radiation}
1263 Any process that could destroy heat (or convert it into
1264 nothing but mechanical work) would lead to a reduction in
1265 entropy. Black holes are supermassive stars whose gravity is
1266 so strong that nothing, not even light, can escape from them
1267 once it gets within a boundary known as the event horizon.
1268 Black holes are commonly observed to suck hot gas into them.
1269 Does this lead to a reduction in the entropy of the
1270 universe? Of course one could argue that the entropy is
1271 still there inside the black hole, but being able to
1272 ``hide'' entropy there amounts to the same thing as being
1273 able to destroy entropy.
1275 The physicist Steven Hawking was bothered by this question,
1276 and finally realized that although the actual stuff that
1277 enters a black hole is lost forever, the black hole will
1278 gradually lose energy  in the form of light emitted from
1279 just outside the event horizon. This light ends up
1280 reintroducing the original entropy back into the universe at
1281 large.
1282 \end{eg}
1284 \enlargethispage{-\baselineskip}
1286 \startdqs
1288 \begin{dq}
1289 In this discussion question, you'll think about a car engine in terms
1290 of thermodynamics. Note that an internal combustion engine doesn't fit
1291 very well into the theoretical straightjacket of a heat engine. For
1292 instance, a heat engine has a high-temperature heat reservoir
1293 at a single well-defined temperature, $T_H$. In a typical car engine,
1294 however, there are several very different temperatures you could
1295 imagine using for $T_H$: the temperature of the engine block
1296 ($\sim100\degcunit$), the walls of the cylinder ($\sim250\degcunit$), or
1297 the temperature of the exploding air-gas mixture ($\sim1000\degcunit$,
1298 with significant changes over a four-stroke cycle). Let's use
1299 $T_H\sim1000\degcunit$.
1301 Burning gas supplies heat energy $Q_H$ to your car's engine. The
1302 engine does mechanical work $W$, but also expels heat $Q_L$
1303 into the environment through the radiator and the exhaust. Conservation
1304 of energy gives
1305 \begin{equation*}
1306         Q_H = Q_L+W \qquad ,
1307 \end{equation*}
1308 and the relative proportions of $Q_L$ and $W$ are usually about
1309 90\% to 10\%. (Actually it depends quite a bit on the type of car, the
1310 driving conditions, etc.)
1312 (1) $Q_L$ is obviously undesirable: you pay for it, but all it does is
1313 heat the neighborhood. Suppose that engineers do a really good job
1314 of getting rid of the effects that create $Q_L$, such as friction. Could
1315 $Q_L$ ever be reduced to zero, at least theoretically?
1317 (2) A gallon of gas releases about 140 MJ of heat $Q_H$ when burned.
1318 Estimate the change in entropy of the universe due to running a typical
1319 car engine and burning one gallon of gas. (You'll have to estimate how
1320 hot the environment is. For the sake of argument, assume that the work
1321 done by the engine, $W$, remains in the form of mechanical energy,
1322 although in reality it probably ends up being changed into heat when you step
1323 on the brakes.) Is your result consistent with the second law of
1324 thermodynamics?
1326 (3) What would happen if you redid the calculation in \#2, but assumed
1327 $Q_L=0$? Is this consistent with your answer to \#1?
1328 \end{dq}
1330 \begin{dq}
1331 When we run the Carnot engine in figures \figref{carnota}-\figref{carnotd}, there are four parts
1332 of the universe that undergo changes in their physical states: the hot reservoir, the cold reservoir,
1333 the working gas, and the outside world to which the shaft is connected in order to do physical work.
1334 Over one full cycle, discuss which of these parts gain entropy, which ones lose entropy, and
1335 which ones keep the same entropy. During which of the four strokes do these changes occur?
1336 \end{dq}
1338 <% end_sec() %>
1339 <% end_sec() %>
1340 <% begin_sec("Entropy as a Microscopic Quantity",nil,'mic-entropy') %>
1341 <% begin_sec("A microscopic view of entropy") %>
1342 To understand why the second law of thermodynamics is always true, we need
1343 to see what entropy really means at the microscopic level. An example that is
1344 easy to visualize is the free expansion of a monoatomic
1345 gas. Figure \figref{freeexpansion}/1 shows a box
1346 in which all the atoms of the gas are confined on one side. We very quickly remove
1347 the barrier between the two sides, \figref{freeexpansion}/2, and some time later, the
1348 system has reached an equilibrium, \figref{freeexpansion}/3. Each snapshot
1349 shows both the positions and the momenta of the atoms, which is enough
1350 information to allow us in theory to extrapolate the behavior of the system into the future,
1351 or the past. However, with a realistic number of atoms, rather than just six, this
1352 would be beyond the computational power of any computer.\footnote{Even with smaller
1353 numbers of atoms, there is a problem with this kind of brute-force computation, because
1354 the tiniest measurement errors in the initial state would end up having large effects
1355 later on.}
1357 <% marg(79) %>
1359   fig(
1360     'freeexpansion',
1361     %q{A gas expands freely, doubling its volume.}
1362   )
1364 \spacebetweenfigs
1366   fig(
1367     'fluctuation',
1368     %q{%
1369       An unusual fluctuation in the distribution of the atoms
1370       between the two sides of the box. There has been no external manipulation
1371       as in figure \figref{freeexpansion}/1.
1372     }
1373   )
1375 <% end_marg %>
1376 But suppose
1377 we show figure \figref{freeexpansion}/2 to a friend without any further information,
1378 and ask her what she can say about the system's behavior in the future. She doesn't
1379 know how the system was prepared. Perhaps, she thinks, it was just a strange
1380 coincidence that all the atoms happened to be in the right half of the box
1381 at this particular moment. In any case, she knows that this unusual situation
1382 won't last for long. She can predict that after the passage of any significant amount of time,
1383 a surprise inspection is likely to show roughly
1384 half the atoms on each side. The same is true if you ask her to say what
1385 happened in the past. She doesn't know about the barrier, so as far as she's concerned,
1386 extrapolation into the past is exactly the same kind of problem as extrapolation into
1387 the future. We just have to imagine reversing all the momentum vectors, and then
1388 all our reasoning works equally well for backwards extrapolation. She would conclude,
1389 then, that the gas in the box underwent an unusual fluctuation, \figref{fluctuation},
1390 and she knows that
1391 the fluctuation is very unlikely to exist very far into the future, or to have existed very
1392 far into the past.
1394 What does this have to do with entropy? Well, state \figref{freeexpansion}/3
1395 has a greater entropy than state \figref{freeexpansion}/2. It would be easy to
1396 extract mechanical work from \figref{freeexpansion}/2, for instance by letting
1397 the gas expand while pressing on a piston rather than simply releasing it suddenly
1398 into the void. There is no way to extract mechanical work from state \figref{freeexpansion}/3.
1399 Roughly speaking, our microscopic description of entropy relates to the \emph{number
1400 of possible states}. There are a lot more states like \figref{freeexpansion}/3 than there
1401 are states like \figref{freeexpansion}/2. Over long enough periods of time --- long
1402 enough for equilibration to occur --- the system gets mixed up, and is about equally
1403 likely to be in any of its possible states, regardless of what state it was initially in.
1404 We define some number that describes an interesting property of the whole system,
1405 say the number of atoms in the right half of the box, $R$.
1406 A high-entropy value of $R$ is one like $R=3$, which allows many possible states.
1407 We are far more likely to encounter $R=3$ than 
1408 a low-entropy value like $R=0$ or $R=6$. 
1410   fig(
1411     'space-junk',
1412     %q{%
1413       Earth orbit is becoming cluttered with space junk, and the pieces can be thought of as the ``molecules'' comprising an exotic kind
1414       of gas. These image shows the evolution of a cloud of debris arising from a 2007 Chinese test of an anti-satellite
1415       rocket. Panels 1-4 show the cloud five minutes, one hour, one day, and one month after the impact. The entropy
1416       seems to have maximized by panel 4.
1417     },
1418     {
1419       'width'=>'wide',
1420       'sidecaption'=>true,
1421       'floatpos'=>'t'
1422     }
1423   )
1426  % 
1427 <% end_sec() %>
1428 <% begin_sec("Phase space") %>
1429 There is a problem with making this description of entropy into a mathematical
1430 definition. The problem is that it refers to the number of possible states, but that number
1431 is theoretically infinite. To get around the problem, we coarsen our description of the
1432 system. For the atoms in figure \figref{freeexpansion}, we don't really care exactly where
1433 each atom is. We only care whether it is in the right side or the left side. If a particular atom's
1434 left-right position is described by a coordinate $x$, then the set of all possible values
1435 of $x$ is a line segment along the $x$ axis, containing an infinite number of points.
1436 We break this line segment down into two halves, each of width $\Delta x$, and we
1437 consider two different values of $x$ to be variations on the same state if they both
1438 lie in the same half. For our present purposes, we can also ignore completely the
1439 $y$ and $z$ coordinates, and all three momentum components, $p_x$, $p_y$, and
1440 $p_z$.
1442 <% marg(60) %>
1444   fig(
1445     'twobytwo',
1446     %q{The phase space for two atoms in a box.}
1447   )
1449 \spacebetweenfigs
1451   fig(
1452     'threedimphasespace',
1453     %q{The phase space for three atoms in a box.}
1454   )
1456 <% end_marg %>
1457 Now let's do a real calculation. Suppose there are only two atoms in the box,
1458 with coordinates $x_1$ and $x_2$. We can give all the relevant information
1459 about the state of the system by specifying one of the cells in the grid
1460 shown in figure \figref{twobytwo}. This grid is known as the 
1461  \emph{phase space} of the system. The lower right cell, for instance,
1462 describes a state in which atom number 1 is in the right side of the box
1463 and atom number 2 in the left. Since there are two possible states with
1464 $R=1$ and only one state with $R=2$, we are twice as likely to observe
1465 $R=1$, and $R=1$ has higher entropy than $R=2$.
1467 Figure \figref{threedimphasespace} shows a corresponding calculation
1468 for three atoms, which makes the phase space three-dimensional. Here,
1469 the $R=1$ and 2 states 
1470 are three times more likely than $R=0$ and 3.
1471 Four atoms would require a four-dimensional phase space, which
1472 exceeds our ability to visualize.
1473 Although our present example doesn't require it, a phase space
1474 can describe momentum as well as position, as shown in figure
1475 \figref{phasespace}.
1476  In general, a phase space for a monoatomic gas
1477 has six dimensions per atom (one for each coordinate
1478 and one for each momentum component).
1480  % 
1481 <% end_sec() %>
1482 <% begin_sec("Microscopic definitions of entropy and temperature") %>
1483 Two more issues need to be resolved in order to make a microscopic
1484 definition of entropy.
1486 First, if we defined entropy as the number of
1487 possible states, it would be a multiplicative quantity, not an additive one:
1488 if an ice cube in a glass of water has $M_1$ states available to it,
1489 and the number of states available to the water is $M_2$, then the
1490 number of possible states of the whole system is the product 
1491 $M_1 M_2$. To get around this problem, we take the natural logarithm
1492 of the number of states, which makes the entropy additive
1493 because of the property of the logarithm $\ln (M_1 M_2) = \ln M_1 + \ln M_2$.
1495 <% marg(90) %>
1497   fig(
1498     'phasespace',
1499     %q{%
1500       A phase space for a single atom in one dimension,
1501       taking momentum into account.
1502     }
1503   )
1505 \spacebetweenfigs
1507   fig(
1508     'boltzmann-tomb',
1509     %q{Ludwig Boltzmann's tomb, inscribed with his equation for entropy.}
1510   )
1512 <% end_marg %>
1514 The second issue is a more trivial one. The concept of entropy was
1515 originally invented as a purely macroscopic quantity, and the
1516 macroscopic definition $\Delta S = Q/T$, which has units of
1517 J/K, has a different calibration than would result from defining
1518 $S=\ln M$. The calibration constant we need turns out to be
1519 simply the Boltzmann constant, $k$.
1521 \mythmhdr{Microscopic definition of entropy}
1522 The entropy of a system is $S = k \ln M$, where $M$ is the number
1523 of available states.\footnote{This is the same relation as the one on
1524 Boltzmann's tomb, just in a slightly different notation.}\index{entropy!microscopic definition}
1526 This also leads to a more fundamental definition of
1527 temperature. Two systems are in thermal equilibrium when
1528 they have maximized their combined entropy through the
1529 exchange of energy. Here the energy possessed by one part of the
1530 system, $E_1$ or $E_2$, plays the same role as the variable
1531 $R$ in the examples of free expansion above.
1532 A maximum of a function occurs when the
1533 derivative is zero, so the maximum entropy occurs when
1534 \begin{equation*}
1535          \frac{\der\left(S_1+S_2\right)}{\der E_1} = 0 \qquad .
1536 \end{equation*}
1537 We assume the systems are only able to exchange heat
1538 energy with each other, $\der E_1=-\der E_2$, so
1539 \begin{equation*}
1540         \frac{\der S_1}{\der E_1} = \frac{\der S_2}{\der E_2} \qquad ,
1541 \end{equation*}
1542 and since the energy is being exchanged in the form of heat
1543 we can make the equations look more familiar if we write $\der Q$
1544 for an amount of heat to be transferred into either
1545 system:
1546 \begin{equation*}
1547         \frac{\der S_1}{\der Q_1} = \frac{\der S_2}{\der Q_2} \qquad .
1548 \end{equation*}
1549 In terms of our previous definition of entropy, this is
1550 equivalent to $1/T_1=1/T_2$, which makes perfect sense since the
1551 systems are in thermal equilibrium. According to our new
1552 approach, entropy has already been defined in a fundamental
1553 manner, so we can take this as a definition of temperature:
1554 \begin{equation*}
1555    \frac{1}{T} = \frac{\der S}{\der Q} \qquad ,
1556 \end{equation*}
1557 where $\der S$ represents the increase in the system's entropy
1558 from adding heat $\der Q$ to it.\index{temperature!microscopic definition}
1560 <% begin_sec("Examples with small numbers of atoms") %>
1561 Let's see how this applies to an ideal, monoatomic gas with a small
1562 number of atoms. To start with, consider the phase space available
1563 to one atom.
1564 Since we assume the atoms in an ideal gas are noninteracting, 
1565 their positions relative to each other are really
1566 irrelevant. We can therefore
1567 enumerate the number of states available to each atom just
1568 by considering the number of momentum vectors it can have,
1569 without considering its possible locations. The relationship
1570 between momentum and kinetic energy is $E=(p_x^2+p_y^2+p_z^2)/2m$,
1571 so if for a fixed value of its energy, we arrange all of an
1572 atom's possible momentum vectors with their tails at the
1573 origin, their tips all lie on the surface of a sphere in phase space with
1574 radius $|\vc{p}|=\sqrt{2mE}$. The number of possible
1575 states for that atom is proportional to the sphere's surface area,
1576 which in turn is proportional to the square of the sphere's radius,
1577 $|\vc{p}|^2=2mE$.  
1579 Now consider two atoms. For any given way of sharing the energy between the
1580 atoms, $E=E_1+E_2$, the number of possible combinations of
1581 states is proportional to $E_1E_2$. The result is shown in figure
1582 \figref{entropygrapha}. The greatest number of combinations occurs when
1583 we divide the energy equally, so an equal division gives maximum entropy.
1585 <% marg(123) %>
1587   fig(
1588     'entropygrapha',
1589     %q{%
1590       A two-atom system has the highest number of available
1591       states when the energy is equally divided. Equal energy
1592       division is therefore the most likely possibility at any
1593       given moment in time.
1594     }
1595   )
1597 \spacebetweenfigs
1599   fig(
1600     'entropygraphb',
1601     %q{%
1602       When two systems of 10 atoms each interact, the graph of
1603       the number of possible states is narrower than with only one
1604       atom in each system.
1605     }
1606   )
1608 <% end_marg %>
1609 By increasing the number of atoms, we get a graph whose peak
1610 is narrower, \figref{entropygraphb}. With more than one atom in each system,
1611 the total energy is
1612 $E=(p_{x,1}^2+p_{y,1}^2+p_{z,1}^2+p_{x,2}^2+p_{y,2}^2+p_{z,2}^2+...)/2m$. With $n$ atoms, a
1613 total of $3n$ momentum coordinates are needed in order to
1614 specify their state, and such a set of numbers is like a
1615 single point in a $3n$-dimensional space (which is impossible
1616 to visualize). For a given total energy $E$, the possible
1617 states are like the surface of a $3n$-dimensional sphere, with
1618 a surface area proportional to $p^{3n-1}$, or $E^{(3n-1)/2}$. The graph in
1619 figure \figref{entropygraphb}, for example, was calculated according to the
1620 formula $E_1^{29/2}E_2^{29/2}=E_1^{29/2}(E-E_1)^{29/2}$.  
1622 Since graph \figref{entropygraphb} is narrower than graph
1623 \figref{entropygrapha}, the fluctuations in energy sharing are
1624 smaller. If we inspect the system at a random moment in time,
1625 the energy sharing is very unlikely to be more lopsided than
1626 a 40-60 split. Now suppose that, instead of 10 atoms interacting
1627 with 10 atoms, we had a $10^{23}$ atoms interacting with
1628 $10^{23}$ atoms. The graph would be extremely narrow, and
1629 it would be a statistical certainty that the energy sharing would
1630 be nearly perfectly equal. This is why we never observe a cold
1631 glass of water to change itself into an ice cube sitting in some
1632 warm water!
1634 By the way, note that although we've redefined
1635 temperature, these examples show that things are coming out consistent
1636 with the old definition, since we saw that the old definition of
1637 temperature could be described in terms of the average energy per
1638 atom, and here we're finding that equilibration results in each subset of the atoms
1639 having an equal share of the energy.
1641 <% end_sec() %>
1642 <% begin_sec("Entropy of a monoatomic ideal gas") %>
1643 Let's calculate the entropy of a monoatomic ideal gas of $n$ atoms. 
1644 This is an important example because it allows us to show that
1645 our present microscopic treatment of thermodynamics is
1646 consistent with our previous macroscopic approach, in which
1647 temperature was defined in terms of an ideal gas thermometer.
1649 The number of possible locations for each atom is $V/\Delta x^3$,
1650 where $\Delta x$  is the size of the space cells in phase space. The
1651 number of possible combinations of  locations for the atoms
1652 is therefore $(V/\Delta x^3)^n$.
1654 The possible momenta cover the
1655 surface of a $3n$-dimensional sphere, whose radius is $\sqrt{2mE}$, and whose surface
1656 area is therefore proportional to $E^{(3n-1)/2}$. In terms of
1657 phase-space cells, this area corresponds to
1658 $E^{(3n-1)/2} / \Delta p^{3n}$ possible combinations of momenta,
1659 multiplied by some constant of proportionality which depends
1660 on $m$, the atomic mass, and $n$, the number of atoms.
1661 To avoid having to calculate this constant of
1662 proportionality, we limit ourselves to calculating the part
1663 of the entropy that does not depend on $n$, so the resulting
1664 formula will not be useful for comparing entropies of ideal
1665 gas samples with different numbers of atoms.
1667 The final result for the number of available states
1669 \begin{equation*}
1670         M  =  \left(\frac{V}{\Delta x^3}\right)^n\:\frac{E^{(3n-1)/2}}{\Delta p^{3n-1}}
1671                         \qquad , \qquad \text{[function of $n$]}
1672 \end{equation*}
1673 so the entropy is
1674 \begin{equation*}
1675         S  =  nk \ln V + \frac{3}{2}nk\ln E 
1676                 + \text{(function of $\Delta x$, $\Delta p$, and $n$)} \qquad ,
1677 \end{equation*}
1678 where the distinction between $n$ and $n-1$ has been ignored.
1679 Using $PV=nkT$ and $E=(3/2)nkT$, we can also rewrite this as
1680 \begin{equation*}
1681         S  =  \frac{5}{2} nk \ln T - nk \ln P + \ldots   ,        \qquad \text{[entropy of a monoatomic ideal gas]}
1682 \end{equation*}
1683 where ``$\ldots$'' indicates terms that may depend on $\Delta x$, $\Delta p$, $m$, and
1684 $n$, but that have no effect on comparisons of gas samples
1685 with the same number of atoms.
1687 <% self_check('idealgasentropy',<<-'SELF_CHECK'
1688 Why does it make sense that the temperature term has a
1689 positive sign in the above example, while the pressure term
1690 is negative? Why does it make sense that the whole thing is
1691 proportional to $n$?
1692   SELF_CHECK
1693   ) %>
1695 To show consistency with the macroscopic approach to thermodynamics,
1696 we need to show that these results are consistent with the behavior of
1697 an ideal-gas thermometer. Using the new definition $1/T=\der S/\der Q$,
1698 we have $1/T=\der S/\der E$, since transferring an amount of heat $\der Q$
1699 into the gas increases its energy by a corresponding amount. Evaluating
1700 the derivative, we find $1/T=(3/2)nk/E$, or $E=(3/2)nkT$, which is the
1701 correct relation for a monoatomic ideal gas.
1703 \begin{eg}{A mixture of molecules}\label{eg:mix-two-gases}
1704 \egquestion Suppose we have a mixture of two different monoatomic gases, say helium and argon.
1705 How would we find the entropy of such a mixture (say, in terms of $V$ and $E$)?
1706 How would the energy be shared between the two types of molecules, i.e., would a more massive argon atom have
1707 more energy on the average than a less massive helium atom, the same, or less?
1709 \eganswer
1710 Since entropy
1711 is additive, we simply need to add the entropies of the two types of atom. However,
1712 the expression derived above for the entropy omitted the dependence on the mass $m$ of the atom,
1713 which is different for the two constituents of the gas, so we need to go back and figure out how
1714 to put that $m$-dependence back in. The only place where we threw away $m$'s was when we
1715 identified the radius of the sphere in momentum space with $\sqrt{2mE}$, but then threw away
1716 the constant factor of $m$. In other words, the final result can be generalized merely by
1717 replacing $E$ everywhere with the product $mE$. Since the log of a product is the sum of the logs,
1718 the dependence of the final result on $m$ and $E$ can be broken apart into two different terms,
1719 and we find 
1720 \begin{equation*}
1721   S=nk \ln V +\frac{3}{2}nk\ln m+\frac{3}{2}nk\ln E+\ldots
1722 \end{equation*}
1723 The total entropy of the mixture
1724 can then be written as 
1725 \begin{multline*}
1726   S =n_1k\ln V +n_2k \ln V +\frac{3}{2}n_1k\ln m_1+\frac{3}{2}n_2k\ln m_2 \\
1727     +\frac{3}{2}n_1k\ln E_1+\frac{3}{2}n_2k\ln E_2+\ldots
1728 \end{multline*}
1730 Now what about the energy sharing? If the total energy is $E=E_1+E_2$, then the most ovewhelmingly probable
1731 sharing of energy will the the one that maximizes the entropy. Notice that the dependence of the entropy on
1732 the masses $m_1$ and $m_2$ occurs in terms that are entirely separate from the energy terms. If we want to maximize
1733 $S$ with respect to $E_1$ (with $E_2=E-E_1$ by conservation of energy), then we differentiate $S$ with respect to
1734 $E_1$ and set it equal to zero. The terms that contain the masses don't have any dependence on $E_1$, so their
1735 derivatives are zero, and we find that the molecular masses can have no effect on the energy sharing. Setting the
1736 derivative equal to zero, we have
1737 \begin{align*}
1738   0 &= \frac{\partial}{\partial E_1} \left(n_1k\ln V +n_2k \ln V +\frac{3}{2}n_1k\ln m_1+\frac{3}{2}n_2k\ln m_2\right. \\
1739     &  \qquad \qquad  +\left.\frac{3}{2}n_1k\ln E_1+\frac{3}{2}n_2k\ln (E-E_1)+\ldots\right) \\
1740     &= \frac{3}{2}k \left( \frac{n_1}{E_1} -  \frac{n_2}{E-E_1}  \right) \\
1741   0 &= \frac{n_1}{E_1} -  \frac{n_2}{E-E_1} \\
1742    \frac{n_1}{E_1} &=  \frac{n_2}{E_2} \qquad .
1743 \end{align*}
1744 In other words, each gas gets a share of the energy in proportion to the number of its atoms,
1745 and therefore every atom gets, on average, the same amount of energy, regardless of its mass.
1746 The result for the average energy per atom is exactly the same as for an unmixed gas, $\bar{K}=(3/2)kT$.
1747 \end{eg}
1749 <% end_sec() %>
1750 <% begin_sec("Equipartition") %>\label{equipartition}
1751 Example \ref{eg:mix-two-gases} is a special case of a more general statement called the equipartition theorem.\index{equipartition theorem}
1752 Suppose we have only one argon atom, named Alice, and one helium atom, named Harry.
1753 Their total kinetic energy is $E=p_x^2/2m+p_y^2/2m+p_z^2/2m+{p'}_x^2/2m'+{p'}_y^2/2m'+{p'}_z^2/2m'$, where the primes
1754 indicate Harry. We have six terms that all look alike. The only difference among them is that the constant factors
1755 attached to the squares of the momenta have different values, but we've just proved that those differences don't matter.
1756 In other words, if we have any system at all whose energy is of the form $E=(\ldots)p_1^2+(\ldots)p_2^2+\ldots$, with any
1757 number of terms, then each term holds, on average, the same amount of energy, $\frac{1}{2}kT$.
1758 We say that the system consisting of Alice and Harry has six degrees of freedom.\index{degree of freedom}
1759 It doesn't even matter whether the things being
1760 squared are momenta: if you look back over the logical steps that went into the argument, you'll see that none of them
1761 depended on that. In a solid, for example, the atoms aren't free to wander around, but they can vibrate from side to
1762 side. If an atom moves away from its equilibrium position at $x=0$ to some other value of $x$, then its electrical
1763 energy is $(1/2)\kappa x^2$, where $\kappa$ is the spring constant (written as the Greek letter kappa to distinguish it
1764 from the Boltzmann constant $k$). We can conclude that each atom in the solid, on average, has $\frac{1}{2}kT$ of energy
1765 in the electrical energy due to its $x$ displacement along the $x$ axis, and equal amounts for $y$ and $z$.
1766 This is known as equipartition, meaning equal partitioning,
1767 or equal sharing. The equipartition theorem says that if the expression for the energy looks like a sum of squared
1768 variables, then each degree of freedom has an average energy of $\frac{1}{2}kT$. Thus, very generally, we can
1769 interpret temperature as the average energy per degree of freedom (times $k/2$).
1770 <% end_sec() %>
1772 <% begin_sec("An unexpected glimpse of the microcosm") %>
1773 You may have the feeling at this point that of course Boltzmann was right about the literal
1774 existence of atoms, but only very sophisticated experiments could vindicate him definitively.
1775 After all, the microscopic and macroscopic definitions of entropy are equivalent, so it might
1776 seem as though there was no real advantage to the microscopic approach. Surprisingly, very
1777 simple experiments are capable of revealing a picture of the microscopic world, and there is
1778 no possible macroscopic explanation for their results.
1780 <% marg(30) %>
1782   fig(
1783     'clement-desormes',
1784     %q{%
1785       An experiment for determining the shapes of molecules.
1786     }
1787   )
1789 <% end_marg %>
1790 In 1819, before Boltzmann was born, Cl\'{e}ment and Desormes did an experiment like the one shown in
1791 figure \figref{clement-desormes}. The gas in the flask is pressurized using the syringe. This heats
1792 it slightly, so it is then allowed to cool back down to room temperature. Its pressure is measured
1793 using the manometer. The stopper on the flask is popped and then immediately reinserted. Its pressure
1794 is now equalized with that in the room, and the gas's expansion has cooled it a little, because it
1795 did mechanical work on its way out of the flask, causing it to lose some of its internal energy $E$.
1796 The expansion is carried out quickly enough so that there is not enough time for any significant amount of
1797 heat to flow in through the walls of the flask before the stopper is reinserted.
1798 The gas is now allowed to come back up to room temperature (which takes a much longer time),
1799 and as a result regains a fraction $b$ of its original overpressure.
1800  During this constant-volume reheating,
1801 we have $PV=nkT$, so the amount of pressure regained is a direct indication of how much the gas cooled down
1802 when it lost an amount of energy $\Delta E$. 
1804   fig(
1805     'molecular-shapes',
1806     %q{% 
1807          The differing shapes of a helium atom (1), a nitrogen molecule (2), and a difluoroethane molecule (3) have surprising
1808          macroscopic effects.
1809     },
1810     {
1811       'width'=>'wide',
1812       'sidecaption'=>true
1813     }
1814   )
1817 If the gas is monoatomic, then we know what to expect for this relationship between energy and temperature: $\Delta E=(3/2)nk\Delta T$,
1818 where the factor of 3 came ultimately from the fact that the gas was in a
1819 three-dimensional space, \subfigref{molecular-shapes}{1}. Moving in this space, each molecule can have momentum in the x, y, and
1820 z directions. It has three degrees of freedom.
1821 What if the gas is not monoatomic? Air, for example, is made of diatomic molecules,
1822 \subfigref{molecular-shapes}{2}. There is a subtle difference between the two cases. An individual atom of
1823 a monoatomic gas is a perfect sphere, so it is exactly the same no matter how it is oriented. Because of this perfect symmetry, there is
1824 thus no way to tell whether it is spinning or not, and in fact we find that it can't rotate. The diatomic gas, on the other hand,
1825 can rotate end over end about the x or y axis, but cannot rotate about the z axis, which is its axis of symmetry.
1826 It has a total of five degrees of freedom. A polyatomic molecule with a more complicated, asymmetric shape,
1827 \subfigref{molecular-shapes}{3}, can rotate about all three axis, so it has a total of six degrees of freedom.
1829 Because a polyatomic molecule has more degrees of freedom than a monoatomic one, it has more possible states for
1830 a given amount of energy. That is, its entropy is higher for the same energy. From the definition of temperature,
1831 $1/T=\der S/\der E$, we conclude that it has a lower temperature for the same energy. In other words, it is
1832 more difficult to heat $n$ molecules of difluoroethane than it is to heat $n$ atoms of helium. When the
1833 Cl\'{e}ment-Desormes experiment is carried out, the result $b$ therefore depends on the shape of the molecule!
1834 Who would have dreamed that such simple observations, correctly interpreted, could give us this kind of
1835 glimpse of the microcosm?
1837 Lets go ahead and calculate how this works.\label{pt-insulated-expansion}
1838 Suppose a gas is allowed
1839 to expand without being able to exchange heat with the rest
1840 of the universe. 
1841 The loss of thermal energy from the gas equals the work it
1842 does as it expands, and
1843 using the result of homework problem \ref{hw:work-pdv} on
1844 page \pageref{hw:work-pdv}, the work done
1845 in an infinitesimal expansion equals $P\der V$, so
1846 \begin{equation*}
1847         \der E + P \der V = 0 \qquad .
1848 \end{equation*}
1849 (If the gas had not been insulated, then there would have
1850 been a third term for the heat gained or lost by heat
1851 conduction.) 
1853 From section \ref{sec:microscopicidealgas} we have $E=(3/2)PV$ for a
1854 monoatomic ideal gas. More generally, the equipartition theorem tells us that the 3 simply needs to be replaced with the
1855 number of degrees of freedom $\alpha$, so $\der E=(\alpha/2)P\der V+(\alpha/2)V\der P$, and the
1856 equation above becomes
1857 \begin{equation*}
1858         0       =  \frac{\alpha+2}{2}P\der V+\frac{\alpha}{2}V\der P \qquad .
1859 \end{equation*}
1860 Rearranging, we have
1861 \begin{equation*}
1862         (\alpha+2)\frac{\der V}{V}      =  -\alpha\frac{\der P}{P} \qquad .
1863 \end{equation*}
1864 Integrating both sides gives
1865 \begin{equation*}
1866         (\alpha+2) \ln V        =  -\alpha \ln P + \text{constant}   ,
1867 \end{equation*}
1868 and taking exponentials on both sides yields
1869 \begin{equation*}
1870         V^{\alpha+2} \propto P^{-\alpha} \qquad .
1871 \end{equation*}
1873 We now wish to reexpress this in terms of pressure and
1874 temperature. Eliminating $V\propto(T/P)$ gives
1875 \begin{equation*}
1876         T \propto   P^b   ,
1877 \end{equation*}
1878 where $b=2/(\alpha+2)$ is equal to 2/5, 2/7, or 1/4, respectively, for
1879 a monoatomic, diatomic, or polyatomic gas.
1881 \begin{eg}{Efficiency of the Carnot engine}\label{eg:carnot-efficiency}
1882 As an application, we now prove the result claimed earlier for the efficiency
1883 of a Carnot engine. First consider the work done during the constant-temperature
1884 strokes. Integrating the equation $\der W=P\der V$,
1885  we have $W = \int P \der V$. Since the thermal energy of
1886 an ideal gas depends only on its temperature, there is no
1887 change in the thermal energy of the gas during this
1888 constant-temperature process. Conservation of energy
1889 therefore tells us that work done by the gas must be exactly
1890 balanced by the amount of heat transferred in from the
1891 reservoir.
1892 \begin{align*}
1893         Q       &=  W \\
1894                 &=   \int P \der V
1895 \end{align*}
1896 For our proof of the efficiency of the Carnot engine, we
1897 need only the ratio of $Q_H$ to $Q_L$, so we neglect constants of
1898 proportionality, and simply subsitutde $P\propto T/V$, giving
1899 \begin{equation*}
1900         Q \propto \int \frac{T}{V} \der V 
1901          \propto T  \ln \frac{V_2}{V_1} 
1902          \propto T \ln \frac{P_1}{P_2} \qquad .
1903 \end{equation*}
1905 The efficiency of a heat engine is
1906 \begin{equation*}
1907         \text{efficiency}       =  1 - \frac{Q_L}{Q_H} \qquad .
1908 \end{equation*}
1909 Making use of the result from the previous proof for a
1910 Carnot engine with a monoatomic ideal
1911 gas as its working gas, we have
1912 \begin{equation*}
1913         \text{efficiency}       =   1-\frac{T_L\:\ln(P_4/P_3)}{T_H\:\ln(P_1/P_2)}  ,
1914 \end{equation*}
1915 where the subscripts 1, 2, 3, and 4 refer to figures \ref{fig:carnota}--\ref{fig:carnotd} on
1916 page \pageref{fig:carnota}. We have shown above
1917 that the temperature is proportional to $P^b$ on the insulated
1918 strokes 2-3 and 4-1, the pressures must be related by
1919 $P_2/P_3=P_1/P_4$, which can be rearranged as $P_4/P_3=P_1/P_2$, and we
1920 therefore have
1921 \begin{equation*}
1922         \text{efficiency}       =  1 - \frac{T_L}{T_H} \qquad .
1923 \end{equation*}
1924 \end{eg}
1925 <% end_sec() %>
1927 <% end_sec() %>
1928 <% begin_sec("The arrow of time, or ``This way to the Big Bang''") %>\index{Big Bang!and the arrow of time}
1929 Now that we have a microscopic understanding of entropy, what does that tell us about
1930 the second law of thermodynamics? The second law
1931 defines a forward direction to time, ``time's arrow.'' The microscopic
1932 treatment of entropy, however, seems to have mysteriously sidestepped
1933 that whole issue. A graph like figure \figref{fluctuation} on page
1934 \pageref{fig:fluctuation}, showing a fluctuation
1935 away from equilibrium, would look just as natural if we flipped it over to
1936 reverse the direction of time. After all, the basic laws of physics are
1937 conservation laws, which don't distinguish between past and future.
1938 Our present picture of entropy suggests that we restate the second
1939 law of thermodynamics as follows: low-entropy states are short-lived.
1940 An ice cube can't exist forever in warm water. We no longer have to
1941 distinguish past from future.\index{thermodynamics!second law of}\index{time!arrow of}
1943 But how do we reconcile this with our strong psychological sense of
1944 the direction of time, including our ability to remember the past but
1945 not the future? Why do we observe ice cubes melting in water, but
1946 not the time-reversed version of the same process?
1948 The answer is that there is no past-future asymmetry in the laws
1949 of physics, but there is a past-future asymmetry in the universe.
1950 The universe started out with the Big Bang.  (Some of the evidence for
1951 the Big Bang theory is given on page \pageref{bigbang}.) The early
1952 universe had a very low entropy, and low-entropy states are short-lived.
1953 What does ``short-lived'' mean here, however? Hot coffee left in a paper
1954 cup will equilibrate with the air within ten minutes or so. Hot coffee in a
1955 thermos bottle maintains its low-entropy state for much longer,
1956 because the coffee is insulated by a vacuum between the inner and outer
1957 walls of the thermos. The universe has been mostly vacuum for a long time,
1958 so it's well insulated. Also, it takes billions of years for a low-entropy
1959 normal star like our sun to evolve into the high-entropy cinder known
1960 as a white dwarf.
1962 The universe, then, is still in the process of equilibrating,
1963 and all the ways we have of telling the past from the future are really just
1964 ways of determining which direction in time points toward the Big Bang,
1965 i.e., which direction points to lower entropy. The psychological arrow of
1966 time, for instance, is ultimately based on the thermodynamic arrow. In some
1967 general sense, your brain is like a computer, and computation has
1968 thermodynamic effects. In even the most efficient possible computer, for example,
1969 erasing one bit of memory
1970 decreases its entropy from $k \ln 2$ (two possible states) to $k \ln 1$
1971 (one state), for a drop of about $10^{-23}$ J/K. One way of determining the
1972 direction of the psychological arrow of time is that forward in psychological
1973 time is the direction in which, billions of years from now, all consciousness
1974 will have ceased; if consciousness was to exist forever in the universe, then
1975 there would have to be a never-ending
1976 decrease in the universe's entropy. This can't happen, because low-entropy states
1977 are short-lived.
1979 Relating the direction of the thermodynamic arrow of time to the existence of
1980 the Big Bang is a satisfying way to avoid the paradox of how the second law
1981 can come from basic laws of physics that don't distinguish past from future.
1982 There is a remaining mystery, however: why did our universe have a Big Bang
1983 that was low in entropy? It could just as easily have been a maximum-entropy
1984 state, and in fact the number of possible high-entropy Big Bangs is vastly greater
1985 than the number of possible low-entropy ones. The question, however, is probably
1986 not one that can be answered using the methods of science. All we can say is that
1987 if the universe had started with a maximum-entropy Big Bang, then we wouldn't be
1988 here to wonder about it. A longer, less mathematical discussion of these concepts,
1989 along with some speculative ideas, is given in ``The Cosmic Origins of Time's
1990 Arrow,'' Sean M. Carroll, Scientific American, June 2008, p. 48.
1992  % 
1993 <% end_sec() %>
1994 <% begin_sec("Quantum mechanics and zero entropy") %>
1995 The previous discussion would seem to imply that absolute
1996 entropies are never well defined, since any calculation of
1997 entropy will always end up having terms that depend on $\Delta p$
1998 and $\Delta x$. For instance, we might think that cooling an ideal
1999 gas to absolute zero would give zero entropy, since there is
2000 then only one available momentum state, but there would
2001 still be many possible position states. We'll see later in this book,
2002 however, that the quantum mechanical
2003 uncertainty principle makes it impossible to know the
2004 location and position of a particle simultaneously with perfect accuracy.
2005 The best we can do is to determine them with an accuracy such that
2006 the product $\Delta p\Delta x$ is equal to a constant called
2007 Planck's constant. According to quantum physics, then, there
2008 is a natural minimum size for rectangles in phase space, and
2009 entropy can be defined in absolute terms. Another way of
2010 looking at it is that according to quantum physics, the gas
2011 as a whole has some well-defined ground state, which is its
2012 state of minimum energy. When the gas is cooled to absolute
2013 zero, the scene is not at all like what we would picture in
2014 classical physics, with a lot of atoms lying around
2015 motionless. It might, for instance, be a strange
2016 quantum-mechanical state called the Bose-Einstein
2017 condensate, which was achieved for the first time recently
2018 with macroscopic amounts of atoms. Classically, the gas has many
2019 possible states available to it at zero temperature, since the
2020 positions of the atoms can be chosen in a variety of ways.
2021 The classical picture is a bad approximation under these
2022 circumstances, however.
2023 Quantum mechanically there is only one ground state,
2024 in which each atom is spread out over the available
2025 volume in a cloud of probability. The entropy is therefore
2026 zero at zero temperature. This fact, which cannot be understood
2027 in terms of classical physics, is known as the third law of
2028 thermodynamics.\index{thermodynamics!third law of}\label{third-law-of-thermodynamics}
2030 <% end_sec() %>
2031 <% begin_sec("Summary of the laws of thermodynamics") %>
2033 Here is a summary of the laws of thermodynamics:
2034 \index{thermodynamics!laws of!summarized}
2035 \index{thermodynamics!zeroth law of}
2036 \index{thermodynamics!first law of}
2037 \index{thermodynamics!second law of}
2038 \index{thermodynamics!third law of}
2040 \begin{description}
2041 \item[The zeroth law of thermodynamics (page \pageref{zeroth-law-of-thermodynamics})] If
2042 object A is at the same temperature as object B, and B is at
2043 the same temperature as C, then A is at the same temperature
2044 as C.
2045 \item[The first law of thermodynamics (page \pageref{first-law-of-thermodynamics})] Energy is \linebreak[4] con\-served.
2046 \item[The second law of thermodynamics (page \pageref{second-law-of-thermodynamics})] The entropy of a closed system always increases, or at best
2047 stays the same: $\Delta S\ge0$.
2048 \item[The third law of thermodynamics (page \pageref{third-law-of-thermodynamics})] The entropy of a system approaches zero as its temperature approaches
2049 absolute zero.
2050 \end{description}
2052 \noindent From a modern point of view, only the first law deserves to be called a fundamental law of physics.
2053 Once Boltmann discovered the microscopic nature of entropy,
2054 the zeroth and second laws could be understood as statements about probability: a system containing a large
2055 number of particles is overwhelmingly likely to do a certain thing, simply because the number of possible ways
2056 to do it is extremely large compared to the other possibilities. The third law is also now understood to be
2057 a consequence of more basic physical principles, but to explain the third law, it's not sufficient simply to know
2058 that matter is made of atoms: we also need to understand the quantum-mechanical nature of those atoms,
2059 discussed in chapter \ref{ch:quantum}.
2060 Historically, however, the laws of thermodynamics were discovered in the eighteenth century, when the
2061 atomic theory of matter was generally considered to be a hypothesis that couldn't be tested experimentally.
2062 Ideally, with the publication of Boltzmann's work on entropy in 1877, the zeroth and second laws would
2063 have been immediately demoted from the status of physical laws, and likewise the development of quantum
2064 mechanics in the 1920's would have done the same for the third law.
2067   fig(
2068     'otto-cycle',
2069     %q{%
2070       The Otto cycle. 1. In the exhaust stroke, the piston expels the burned air-gas
2071       mixture left over from the preceding cycle. 
2072       2. In the intake stroke, the piston sucks in fresh air-gas mixture. 3. In the compression stroke, the
2073       piston compresses the mixture, and heats it. 4. At the beginning of the power stroke, the spark plug fires,
2074       causing the air-gas mixture to burn explosively and heat up much more. The heated mixture expands, and does
2075       a large amount of positive mechanical work on the piston. An animated version can be viewed in the
2076       Wikipedia article ``Four-stroke engine.''
2077     },
2078     {
2079       'width'=>'wide',
2080       'sidecaption'=>true
2081     }
2082   )
2085 <% end_sec() %>
2086 <% end_sec() %>
2087 <% begin_sec("More about Heat Engines",0) %>
2089 So far, the only heat engine we've discussed in any detail has been a fictitious Carnot engine,
2090 with a monoatomic ideal gas as its working gas. As a more realistic example,
2091 figure \figref{otto-cycle} shows one full cycle of a cylinder in a standard gas-burning automobile engine.
2092 This four-stroke cycle is called the Otto cycle,\index{Otto cycle}\index{engine!Otto cycle}\index{engine!automobile}
2093 after its inventor, German engineer Nikolaus Otto.\index{Otto, Nikolaus}
2094 The Otto cycle is more complicated than a Carnot cycle, in a number of ways:
2096 \begin{itemize}
2097 \item The working gas is physically pumped in and out of the cylinder through valves, rather than being
2098 sealed and reused indefinitely as in the Carnot engine.
2099 \item The cylinders are not perfectly insulated from the engine block, so heat energy is lost from
2100 each cylinder by conduction. This makes the engine less efficient that a Carnot engine, because heat
2101 is being discharged at a temperature that is not as cool as the environment.
2102 \item Rather than being heated by contact with an external heat reservoir, the air-gas mixture inside
2103 each cylinder is heated by internal combusion: a spark from a spark plug burns the gasoline, releasing heat.
2104 \item The working gas is not monoatomic. Air consists of diatomic molecules ($\zu{N}_2$ and $\zu{O}_2$),
2105 and gasoline of polyatomic molecules such as octane ($\zu{C}_8\zu{H}_{18}$).
2106 \item The working gas is not ideal. An ideal gas is one in which the molecules never interact with one
2107 another, but only with the walls of the vessel, when they collide with it. In a car engine, the molecules
2108 are interacting very dramatically with one another when the air-gas mixture explodes (and less dramatically
2109 at other times as well, since, for example, the gasoline may be in the form of microscopic droplets rather
2110 than individual molecules).
2111 \end{itemize}
2113 This is all extremely complicated, and it would be nice to have some way of understanding and visualizing
2114 the important properties of such a heat engine without trying to handle every detail at once. A good method
2115 of doing this is a type of graph known as a P-V diagram. As proved in homework problem \ref{hw:work-pdv}, the equation $\der W=F\der x$ for mechanical work
2116 can be rewritten as $\der W=P\der V$ in the case of work done by a piston. Here $P$ represents the pressure of the working gas,
2117 and $V$ its volume. Thus, on a graph of $P$ versus $V$, the area under the curve represents the work done. When the gas
2118 expands, $\der x$ is positive, and the gas does positive work. When the gas is being compressed, $\der x$ is negative, and
2119 the gas does negative work, i.e., it absorbs energy. Notice how, in the diagram of the Carnot engine in the top panel of
2120 figure \figref{pv-for-carnot-and-otto}, the cycle goes clockwise around the curve, and therefore
2121 the part of the curve in which negative work is being done (arrowheads pointing to the left) are below the ones in which
2122 positive work is being done. This means that over all, the engine does a positive amount of work. This net work equals the area under
2123 the top part of the curve, minus the area under the bottom part of the curve, which is simply the area enclosed by the curve.
2124 Although the diagram for the Otto engine is more complicated, we can at least compare it on the same footing with the Carnot
2125 engine. The curve forms a figure-eight, because it cuts across itself. The top loop goes clockwise, so as in the case of the Carnot
2126 engine, it represents positive work. The bottom loop goes counterclockwise, so it represents a net negative contribution to the work.
2127 This is because more work is expended in forcing out the exhaust than is generated in the intake stroke.
2128 <% marg(0) %>
2130   fig(
2131     'pv-for-carnot-and-otto',
2132     %q{P-V diagrams for a Carnot engine and an Otto engine.}
2133   )
2135 <% end_marg %>
2137 To make an engine as efficient as possible, we would like to make the loop have as much area as possible. What is it that
2138 determines the actual shape of the curve? First let's consider the constant-temperature expansion stroke that forms the
2139 top of the Carnot engine's P-V plot. This is analogous to the power stroke of an Otto engine. Heat is being sucked in
2140 from the hot reservoir, and since the working gas is always in thermal equilibrium with the hot reservoir, its temperature
2141 is constant. Regardless of the type of gas, we therefore have $PV=nkT$ with $T$ held constant, and thus $P\propto V^{-1}$
2142 is the mathematical shape of this curve --- a $y=1/x$ graph, which is a hyperbola. This is all true regardless of whether
2143 the working gas is monoatomic, diatomic, or polyatomic.
2144 (The bottom of the loop is likewise of the form $P\propto V^{-1}$, but with a smaller constant of proportionality due
2145 to the lower temperature.)
2147 Now consider the insulated expansion stroke that forms the right side of the curve for the Carnot engine.
2148 As shown on page \pageref{pt-insulated-expansion}, the relationship between pressure and temperature in an
2149 insulated compression or expansion is  $T \propto   P^b$,
2150 with $b=2/5$, 2/7, or 1/4, respectively, for
2151 a monoatomic, diatomic, or polyatomic gas. For $P$ as a function of $V$ at constant $T$, the ideal gas law gives
2152 $P\propto T/V$, so $P\propto V^{-\gamma}$, where $\gamma=1/(1-b)$ takes on the values
2153 5/3, 7/5, and 4/3. The number $\gamma$ can be interpreted as the ratio $C_P/C_V$,
2154 where $C_P$, the heat capacity at constant pressure, is the amount of heat required to raise the temperature
2155 of the gas by one degree while keeping its pressure constant, and $C_V$ is the corresponding quantity under
2156 conditions of constant volume.\index{heat capacity!at constant pressure}\index{heat capacity!at constant volume}
2158 \begin{eg}{The compression ratio}\label{eg:compression-ratio}
2159 Operating along a constant-temperature stroke, the amount of mechanical work done by a heat engine can be calculated
2160 as follows:
2161 \begin{align*}
2162   PV &= nkT \\
2163 \intertext{Setting $c=nkT$ to simplify the writing,}
2164   P &= cV^{-1} \\
2165   W &= \int_{V_i}^{V_f} P \der V \\
2166     &= c \int_{V_i}^{V_f} V^{-1} \der V \\
2167     &= c \ln V_f - c \ln V_i \\
2168     &= c \ln (V_f/V_i)
2169 \end{align*}
2170 The ratio $V_f/V_i$ is called the \emph{compression ratio} of the engine, and higher values result in more
2171 power along this stroke. Along an insulated stroke, we have $P\propto V^{-\gamma}$, with $\gamma\ne1$,
2172 so the result for the
2173 work no longer has this perfect mathematical property of depending only on the ratio $V_f/V_i$. Nevertheless,
2174 the compression ratio is still a good figure of merit for predicting the performance of any heat engine,
2175 including an internal combustion engine. High compression ratios tend to make the working gas of an
2176 internal combustion engine heat up so much that it spontaneously explodes. When this happens in an Otto-cycle
2177 engine, it can cause ignition before the sparkplug fires, an undesirable effect known as pinging. For this
2178 reason, the compression ratio of an Otto-cycle automobile engine cannot normally exceed about 10. In a diesel
2179 engine, however, this effect is used intentionally, as an alternative to sparkplugs, and compression ratios
2180 can be 20 or more.
2181 \end{eg}
2183 \hspace{0mm plus 20mm}
2185 <% marg(0) %>
2187   fig(
2188     'pv-for-sound',
2189     %q{Example \ref{eg:pv-for-sound},}
2190   )
2192 <% end_marg %>
2193 \begin{eg}{Sound}\label{eg:pv-for-sound}
2194 Figure \figref{pv-for-sound} shows a P-V plot for a sound wave. As the pressure oscillates up and down,
2195 the air is heated and cooled by its compression and expansion. Heat conduction is a relatively slow
2196 process, so typically there is not enough time over each cycle for any significant amount of heat to
2197 flow from the hot areas to the cold areas. (This is analogous to insulated compression or expansion of
2198 a heat engine; in general, a compression or expansion of this type, with no transfer of heat, is called
2199 \emph{adiabatic}.\index{adiabatic}) The pressure and volume of a particular little piece of
2200 the air are therefore related according to $P\propto V^{-\gamma}$. The cycle of oscillation consists
2201 of motion back and forth along a single curve in the P-V plane, and since this curve encloses zero
2202 volume, no mechanical work is being done: the wave (under the assumed ideal conditions) propagates
2203 without any loss of energy due to friction.
2205 The speed of sound is also related to $\gamma$. See example \ref{eg:speed-of-sound}
2206 on p.~\pageref{eg:speed-of-sound}.
2207 \end{eg}
2209 <% marg(0) %>
2211   fig(
2212     'gamma-spring-of-air',
2213     %q{Example \ref{eg:gamma-spring-of-air}.}
2214   )
2216 <% end_marg %>
2217 \begin{eg}{Measuring $\gamma$ using the ``spring of air''}\label{eg:gamma-spring-of-air}
2218 Figure \figref{gamma-spring-of-air} shows an experiment that can be used to measure the $\gamma$ of a gas.
2219 When the mass $m$ is inserted into bottle's neck, which has cross-sectional area $A$, the mass
2220 drops until it compresses the air enough so that the pressure is enough to support its weight.
2221 The observed frequency $\omega$ of oscillations about this equilibrium position $y_\zu{o}$ can be used to extract the
2222 $\gamma$ of the gas.
2223 \begin{align*}
2224   \omega^2 &= \frac{k}{m} \\
2225          &= \left.-\frac{1}{m}\:\frac{\der F}{\der y}\right|_{y_\zu{o}} \\
2226          &= \left.-\frac{A}{m}\:\frac{\der P}{\der y}\right|_{y_\zu{o}} \\
2227          &= \left.-\frac{A^2}{m}\:\frac{\der P}{\der V}\right|_{V_\zu{o}} 
2228 \end{align*}
2229 We make the bottle big enough so that its large surface-to-volume ratio prevents the
2230 conduction of any significant amount of heat through its walls during one cycle, so $P\propto V^{-\gamma}$,
2231 and $\der P/\der V=-\gamma P/V$. Thus,
2232 \begin{align*}
2233   \omega^2 &= \gamma\frac{A^2}{m}\:\frac{P_\zu{o}}{V_\zu{o}}
2234 \end{align*}
2235 \end{eg}
2237 \begin{eg}{The Helmholtz resonator}\label{eg:helmholtz-resonator}\index{Helmholtz resonator}
2238 When you blow over the top of a beer bottle, you produce a pure tone.
2239 As you drink more of the beer, the pitch goes down. This is similar to
2240 example \ref{eg:gamma-spring-of-air}, except that instead of a solid mass
2241 $m$ sitting inside the neck of the bottle, the moving mass is the air itself.
2242 As air rushes in and out of the bottle, its velocity is highest at the bottleneck,
2243 and since kinetic energy is proportional to the square of the velocity, essentially
2244 all of the kinetic energy is that of the air that's in the neck. In other words,
2245 we can replace $m$ with $AL\rho$, where $L$ is the length of the neck, and $\rho$ is
2246 the density of the air. Substituting into the earlier result, we find that the
2247 resonant frequency is
2248 \begin{align*}
2249   \omega^2 &= \gamma\frac{P_\zu{o}}{\rho}\:\frac{A}{LV_\zu{o}} \qquad .
2250 \end{align*}
2251 This is known as a Helmholtz resonator.
2252 As shown in figure \figref{stradivarius}, a violin or an acoustic guitar has a Helmholtz resonance,
2253 since air can move in and out through the f-holes. Problem \ref{hw:violin-helmholtz} is a more
2254 quantitative exploration of this.
2255 \end{eg}
2257   fig(
2258     'stradivarius',
2259     'The resonance curve of a 1713 Stradivarius violin, measured by
2260      Carleen Hutchins. There are a number of different resonance peaks, some strong and some weak;
2261      the ones near 200 and 400 Hz are vibrations of the wood, but the one near 300 Hz is a resonance
2262      of the air moving in and out through those holes shaped like the letter F.
2263      The white lines show the frequencies of the four strings.',
2264     {
2265       'width'=>'wide',
2266       'sidecaption'=>true
2267     }
2268   )
2271 We have already seen, based on the microscopic nature of entropy, that any Carnot engine has the same
2272 efficiency, and the argument only employed the assumption that the engine met the definition of a Carnot
2273 cycle: two insulated strokes, and two constant-temperature strokes. Since we didn't have to make any
2274 assumptions about the nature of the working gas being used, the result is evidently true for diatomic
2275 or polyatomic molecules, or for a gas that is not ideal. This result is surprisingly simple and general,
2276 and a little mysterious --- it even applies to possibilities that we have not even considered, such as
2277 a Carnot engine designed so that the working ``gas'' actually consists of a mixture of liquid droplets and vapor,
2278 as in a steam engine. How can it always turn out so simple, given the kind of mathematical complications that
2279 were swept under the rug in example \ref{eg:compression-ratio}? A better way to understand this result
2280 is by switching from P-V diagrams to a diagram of temperature versus entropy, as shown in figure 
2281 \figref{ts-for-carnot}. An infinitesimal transfer of heat $\der Q$ gives rise to a change in entropy
2282 $\der S=\der Q/T$, so the area under the curve on a T-S plot gives the amount of heat transferred.
2283 The area under the top edge of the box in figure \figref{ts-for-carnot}, extending all the way down to the
2284 axis, represents the amount of heat absorbed from the hot reservoir, while the smaller area under the
2285 bottom edge represents the heat wasted into the cold reservoir. By conservation of energy, the area enclosed
2286 by the box therefore represents the amount of mechanical work being done, as for a P-V diagram.
2287 We can now see why the efficiency of a Carnot engine is independent of any of the physical details:
2288 the definition of a Carnot engine guarantees that the T-S diagram will be a rectangular box, and the efficiency
2289 depends only on the relative heights of the top and bottom of the box.
2290 <% marg(0) %>
2292   fig(
2293     'ts-for-carnot',
2294     %q{A T-S diagram for a Carnot engine.}
2295   )
2297 <% end_marg %>
2299 \backofchapterboilerplate{thermo}
2300  % 
2301  % ============================= homework ==============================  
2303 <% end_sec() %><% begin_hw_sec %>
2305 <% begin_hw('stpvol',0) %>__incl(hw/stpvol)<% end_hw() %>
2307 <% begin_hw('work-pdv') %>__incl(hw/work-pdv)<% end_hw() %>
2309 <% begin_hw('he',0) %>
2310 (a) A helium atom contains 2 protons, 2 electrons, and 2
2311 neutrons. Find the mass of a helium atom.  \answercheck\hwendpart
2312 (b) Find the
2313 number of atoms in 1.0 kg of helium.  \answercheck\hwendpart
2314 (c) Helium gas is
2315 monoatomic. Find the amount of heat needed to raise the
2316 temperature of 1.0 kg of helium by 1.0 degree C. (This is known
2317 as helium's heat capacity at constant volume.) \answercheck
2318 <% end_hw() %>
2320 <% begin_hw('cracking-gas-molecules') %>__incl(hw/cracking-gas-molecules)<% end_hw() %>
2322 <% begin_hw('igm') %>__incl(hw/igm)<% end_hw() %>
2324 <% begin_hw('centerofearth') %>
2325 Estimate the pressure at the center of the Earth,
2326 assuming it is of constant density throughout. Note that $g$
2327 is not constant with respect to depth --- as shown in
2328 example \ref{eg:gravityinearth} on page \pageref{eg:gravityinearth},
2329 $g$ equals $Gmr/b^3$ for $r$, the distance from the center,
2330 less than $b$, the earth's radius.\hwendpart
2331 (a) State your result in terms of $G$, $m$, and $b$.\answercheck\hwendpart
2332 (b) Show that your answer from part a has the right units for pressure.\hwendpart
2333 (c) Evaluate the result numerically. \answercheck \hwendpart
2334 (d) Given that the earth's atmosphere is on the order of
2335  one thousandth the earth's radius, and that the density
2336 of the earth is several thousand times greater than the density of the
2337 lower atmosphere, check that your result is of a reasonable order of
2338 magnitude.
2339 <% end_hw() %>
2341 <% begin_hw('fluorocarbon') %>__incl(hw/fluorocarbon)<% end_hw() %>
2343 <% begin_hw('airconditioner') %>
2344 Refrigerators, air conditioners, and heat pumps are heat engines that
2345 work in reverse.
2346 You put in mechanical work, and the effect is to take heat out of
2347 a cooler reservoir and deposit heat in a warmer one: $Q_L+W=Q_H$.
2348 As with the heat engines discussed previously, the efficiency is
2349 defined as the energy transfer you want ($Q_L$ for a refrigerator or
2350 air conditioner, $Q_H$ for a heat pump) divided by the energy transfer
2351 you pay for ($W$).
2353 Efficiencies are supposed to be unitless, but the
2354 efficiency of an air conditioner is normally given in terms of an EER rating
2355 (or a more complex version called an SEER). The EER is defined
2356 as $Q_L/W$, but expressed in the barbaric units of of Btu/watt-hour.
2357 A typical EER rating
2358 for a residential air conditioner is about 10 Btu/watt-hour, corresponding to an
2359 efficiency of about 3.
2360 The standard temperatures used for testing an air conditioner's efficiency
2361 are $80\degunit F$ ($27\degcunit$) inside and
2362  $95\degunit F$ ($35\degcunit$) outside.
2364 \noindent (a) What would be the EER rating of a reversed Carnot engine used as
2365 an air conditioner? \answercheck\hwendpart
2366 (b) If you ran a 3-kW residential air conditioner, with an efficiency of 3,
2367  for one hour, what would
2368 be the effect on the total entropy of the universe? Is your answer
2369 consistent with the second law of thermodynamics? \answercheck
2370 <% end_hw() %>
2372 <% begin_hw('heart-efficiency') %>__incl(hw/heart-efficiency)<% end_hw() %>
2374 <% begin_hw('violin-helmholtz') %>__incl(hw/violin-helmholtz)<% end_hw() %>
2376 <% end_hw_sec %>
2377 <% end_chapter() %>