Fix bug in close_logs(): when we close and delete logs, remove them all from the...
[tor.git] / doc / incentives.txt
blob8c1ee7738cea5b8d87721d67da3cd0b42acbe875
2                  Tor Incentives Design Brainstorms
4 1. Goals: what do we want to achieve with an incentive scheme?
6 1.1. Encourage users to provide good relay service (throughput, latency).
7 1.2. Encourage users to allow traffic to exit the Tor network from
8      their node.
10 2. Approaches to learning who should get priority.
12 2.1. "Hard" or quantitative reputation tracking.
14    In this design, we track the number of bytes and throughput in and
15    out of nodes we interact with. When a node asks to send or receive
16    bytes, we provide service proportional to our current record of the
17    node's value. One approach is to let each circuit be either a normal
18    circuit or a premium circuit, and nodes can "spend" their value by
19    sending and receiving bytes on premium circuits: see section 4.1 for
20    details of this design. Another approach (section 4.2) would treat
21    all traffic from the node with the same priority class, and so nodes
22    that provide resources will get and provide better service on average.
24    This approach could be complemented with an anonymous e-cash
25    implementation to let people spend reputations gained from one context
26    in another context.
28 2.2. "Soft" or qualitative reputation tracking.
30    Rather than accounting for every byte (if I owe you a byte, I don't
31    owe it anymore once you've spent it), instead I keep a general opinion
32    about each server: my opinion increases when they do good work for me,
33    and it decays with time, but it does not decrease as they send traffic.
34    Therefore we reward servers who provide value to the system without
35    nickle and diming them at each step. We also let them benefit from
36    relaying traffic for others without having to "reserve" some of the
37    payment for their own use. See section 4.3 for a possible design.
39 2.3. Centralized opinions from the reputation servers.
41    The above approaches are complex and we don't have all the answers
42    for them yet. A simpler approach is just to let some central set
43    of trusted servers (say, the Tor directory servers) measure whether
44    people are contributing to the network, and provide a signal about
45    which servers should be rewarded. They can even do the measurements
46    via Tor so servers can't easily perform only when they're being
47    tested. See section 4.4.
49 2.4. Reputation servers that aggregate opinions.
51    The option above has the directory servers doing all of the
52    measurements. This doesn't scale. We can set it up so we have "deputy
53    testers" -- trusted other nodes that do performance testing and report
54    their results. If we want to be really adventurous, we could even
55    accept claims from every Tor user and build a complex weighting /
56    reputation system to decide which claims are "probably" right.
58    One possible way to implement the latter is something similar to
59    EigenTrust [http://www.stanford.edu/~sdkamvar/papers/eigentrust.pdf],
60    where the opinion of nodes with high reputation more is weighted
61    higher.
63 3. Related issues we need to keep in mind.
65 3.1. Relay and exit configuration needs to be easy and usable.
67    Implicit in all of the above designs is the need to make it easy to
68    run a Tor server out of the box. We need to make it stable on all
69    common platforms (including XP), it needs to detect its available
70    bandwidth and not overreach that, and it needs to help the operator
71    through opening up ports on his firewall. Then we need a slick GUI
72    that lets people click a button or two rather than editing text files.
74    Once we've done all this, we'll hit our first big question: is
75    most of the barrier to growth caused by the unusability of the current
76    software? If so, are the rest of these incentive schemes superfluous?
78 3.2. The network effect: how many nodes will you interact with?
80    One of the concerns with pairwise reputation systems is that as the
81    network gets thousands of servers, the chance that you're going to
82    interact with a given server decreases. So if 90% of interactions
83    don't have any prior information, the "local" incentive schemes above
84    are going to degrade. This doesn't mean they're pointless -- it just
85    means we need to be aware that this is a limitation, and plan in the
86    background for what step to take next. (It seems that e-cash solutions
87    would scale better, though they have issues of their own.)
89 3.3. Guard nodes
91    As of Tor 0.1.1.11, Tor users pick from a small set of semi-permanent
92    "guard nodes" for their first hop of each circuit. This seems like it
93    would have a big impact on pairwise reputation systems since you
94    will only be cashing in on your reputation to a few people, and it is
95    unlikely that a given pair of nodes will use each other as guard nodes.
97    What does this imply? For one, it means that we don't care at all
98    about the opinions of most of the servers out there -- we should
99    focus on keeping our guard nodes happy with us.
101    One conclusion from that is that our design needs to judge performance
102    not just through direct interaction (beginning of the circuit) but
103    also through indirect interaction (middle of the circuit). That way
104    you can never be sure when your guards are measuring you.
106    Both 3.2 and 3.3 may be solved by having a global notion of reputation,
107    as in 2.3 and 2.4. However, computing the global reputation from local
108    views could be expensive (O(n^2)) when the network is really large.
110 3.4. Restricted topology: benefits and roadmap.
112    As the Tor network continues to grow, we will need to make design
113    changes to the network topology so that each node does not need
114    to maintain connections to an unbounded number of other nodes. For
115    anonymity's sake, we may partition the network such that all
116    the nodes have the same belief about the divisions and each node is
117    in only one partition. (The alternative is that every user fetches
118    his own random subset of the overall node list -- this is bad because
119    of intersection attacks.)
121    Therefore the "network horizon" for each user will stay bounded,
122    which helps against the above issues in 3.2 and 3.3.
124    It could be that the core of long-lived servers will all get to know
125    each other, and so the critical point that decides whether you get
126    good service is whether the core likes you. Or perhaps it will turn
127    out to work some other way.
129    A special case here is the social network, where the network isn't
130    partitioned randomly but instead based on some external properties.
131    Social network topologies can provide incentives in other ways, because
132    people may be more inclined to help out their friends, and more willing
133    to relay traffic if most of the traffic they are relaying comes
134    from their friends. It also opens the door for out-of-band incentive
135    schemes because of the out-of-band links in the graph.
137 3.5. Profit-maximizing vs. Altruism.
139    There are some interesting game theory questions here.
141    First, in a volunteer culture, success is measured in public utility
142    or in public esteem. If we add a reward mechanism, there's a risk that
143    reward-maximizing behavior will surpass utility- or esteem-maximizing
144    behavior.
146    Specifically, if most of our servers right now are relaying traffic
147    for the good of the community, we may actually *lose* those volunteers
148    if we turn the act of relaying traffic into a selfish act.
150    I am not too worried about this issue for now, since we're aiming
151    for an incentive scheme so effective that it produces tens of
152    thousands of new servers.
154 3.6. What part of the node's performance do you measure?
156    We keep referring to having a node measure how well the other nodes
157    receive bytes. But don't leeching clients receive bytes just as well
158    as servers?
160    Further, many transactions in Tor involve fetching lots of
161    bytes and not sending very many. So it seems that we want to turn
162    things around: we need to measure how quickly a node is _sending_
163    us bytes, and then only send it bytes in proportion to that.
165    However, a sneaky user could simply connect to a node and send some
166    traffic through it, and voila, he has performed for the network. This
167    is no good. The first fix is that we only count if you're receiving
168    bytes "backwards" in the circuit. Now the sneaky user needs to
169    construct a circuit such that his node appears later in the circuit,
170    and then send some bytes back quickly.
172    Maybe that complexity is sufficient to deter most lazy users. Or
173    maybe it's an argument in favor of a more penny-counting reputation
174    approach.
176    Addendum: I was more thinking of measuring based on who is the service
177    provider and service receiver for the circuit. Say Alice builds a
178    circuit to Bob. Then Bob is providing service to Alice, since he
179    otherwise wouldn't need to spend is bandwidth. So traffic in either
180    direction should be charged to Alice. Of course, the same attack would
181    work, namely, Bob could cheat by sending bytes back quickly. So someone
182    close to the origin needs to detect this and close the circuit, if
183    necessary. -JN
185 3.7. What is the appropriate resource balance for servers vs. clients?
187    If we build a good incentive system, we'll still need to tune it
188    to provide the right bandwidth allocation -- if we reserve too much
189    bandwidth for fast servers, then we're wasting some potential, but
190    if we reserve too little, then fewer people will opt to become servers.
191    In fact, finding an optimum balance is especially hard because it's
192    a moving target: the better our incentive mechanism (and the lower
193    the barrier to setup), the more servers there will be. How do we find
194    the right balance?
196    One answer is that it doesn't have to be perfect: we can err on the
197    side of providing extra resources to servers. Then we will achieve our
198    desired goal -- when people complain about speed, we can tell them to
199    run a server, and they will in fact get better performance.
201 3.8. Anonymity attack: fast connections probably come from good servers.
203    If only fast servers can consistently get good performance in the
204    network, they will stand out. "Oh, that connection probably came from
205    one of the top ten servers in the network." Intersection attacks over
206    time can improve the certainty of the attack.
208    I'm not too worried about this. First, in periods of low activity,
209    many different people might be getting good performance. This dirties
210    the intersection attack. Second, with many of these schemes, we will
211    still be uncertain whether the fast node originated the traffic, or
212    was the entry node for some other lucky user -- and we already accept
213    this level of attack in other cases such as the Murdoch-Danezis attack
214    [http://freehaven.net/anonbib/#torta05].
216 3.9. How do we allocate bandwidth over the course of a second?
218    This may be a simple matter of engineering, but it still needs to be
219    addressed. Our current token bucket design refills each bucket once a
220    second. If we have N tokens in our bucket, and we don't know ahead of
221    time how many connections are going to want to send out how many bytes,
222    how do we balance providing quick service to the traffic that is
223    already here compared to providing service to potential high-importance
224    future traffic?
226    If we have only two classes of service, here is a simple design:
227    At each point, when we are 1/t through the second, the total number
228    of non-priority bytes we are willing to send out is N/t. Thus if N
229    priority bytes are waiting at the beginning of the second, we drain
230    our whole bucket then, and otherwise we provide some delayed service
231    to the non-priority bytes.
233    Does this design expand to cover the case of three priority classes?
234    Ideally we'd give each remote server its own priority number. Or
235    hopefully there's an easy design in the literature to point to --
236    this is clearly not my field.
238    Is our current flow control mechanism (each circuit and each stream
239    start out with a certain window, and once they've exhausted it they
240    need to receive an ack before they can send more) going to have
241    problems with this new design now that we'll be queueing more bytes
242    for less preferred nodes? If it turns out we do, the first fix is
243    to have the windows start out at zero rather than start out full --
244    it will slow down the startup phase but protect us better.
246    While we have outgoing cells queued for a given server, we have the
247    option of reordering them based on the priority of the previous hop.
248    Is this going to turn out to be useful? If we're the exit node (that
249    is, there is no previous hop) what priority do those cells get?
251    Should we do this prioritizing just for sending out bytes (as I've
252    described here) or would it help to do it also for receiving bytes?
253    See next section.
255 3.10. Different-priority cells arriving on the same TCP connection.
257    In some of the proposed designs, servers want to give specific circuits
258    priority rather than having all circuits from them get the same class
259    of service.
261    Since Tor uses TCP's flow control for rate limiting, this constraints
262    our design choices -- it is easy to give different TCP connections
263    different priorities, but it is hard to give different cells on the
264    same connection priority, because you have to read them to know what
265    priority they're supposed to get.
267    There are several possible solutions though. First is that we rely on
268    the sender to reorder them so the highest priority cells (circuits) are
269    more often first. Second is that if we open two TCP connections -- one
270    for the high-priority cells, and one for the low-priority cells. (But
271    this prevents us from changing the priority of a circuit because
272    we would need to migrate it from one connection to the other.) A
273    third approach is to remember which connections have recently sent
274    us high-priority cells, and preferentially read from those connections.
276    Hopefully we can get away with not solving this section at all. But if
277    necessary, we can consult Ed Knightly, a Professor at Rice
278    [http://www.ece.rice.edu/~knightly/], for his extensive experience on
279    networking QoS.
281 3.11. Global reputation system: Congestion on high reputation servers?
283    If the notion of reputation is global (as in 2.3 or 2.4), circuits that
284    go through successive high reputation servers would be the fastest and
285    most reliable. This would incentivize everyone, regardless of their own
286    reputation, to choose only the highest reputation servers in its
287    circuits, causing an over-congestion on those servers.
289    One could argue, though, that once those servers are over-congested,
290    their bandwidth per circuit drops, which would in turn lower their
291    reputation in the future. A question is whether this would overall
292    stablize.
294    Another possible way is to keep a cap on reputation. In this way, a
295    fraction of servers would have the same high reputation, thus balancing
296    such load.
298 3.12. Another anonymity attack: learning from service levels.
300    If reputation is local, it may be possible for an evil node to learn
301    the identity of the origin through provision of differential service.
302    For instance, the evil node provides crappy bandwidth to everyone,
303    until it finds a circuit that it wants to trace the origin, then it
304    provides good bandwidth. Now, as only those directly or indirectly
305    observing this circuit would like the evil node, it can test each node
306    by building a circuit via each node to another evil node. If the
307    bandwidth is high, it is (somewhat) likely that the node was a part of
308    the circuit.
310    This problem does not exist if the reputation is global and nodes only
311    follow the global reputation, i.e., completely ignore their own view.
313 3.13. DoS through high priority traffic.
315    Assume there is an evil node with high reputation (or high value on
316    Alice) and this evil node wants to deny the service to Alice. What it
317    needs to do is to send a lot of traffic to Alice. To Alice, all traffic
318    from this evil node is of high priority. If the choice of circuits are
319    too based toward high priority circuits, Alice would spend most of her
320    available bandwidth on this circuit, thus providing poor bandwidth to
321    everyone else. Everyone else would start to dislike Alice, making it
322    even harder for her to forward other nodes' traffic. This could cause
323    Alice to have a low reputation, and the only high bandwidth circuit
324    Alice could use would be via the evil node.
326 4. Sample designs.
328 4.1. Two classes of service for circuits.
330    Whenever a circuit is built, it is specified by the origin which class,
331    either "premium" or "normal", this circuit belongs. A premium circuit
332    gets preferred treatment at each node. A node "spends" its value, which
333    it earned a priori by providing service, to the next node by sending
334    and receiving bytes. Once a node has overspent its values, the circuit
335    cannot stay as premium. It can either breaks or converts into a normal
336    circuit. Each node also reserves a small portion of bandwidth for
337    normal circuits to prevent starvation.
339    Pro: Even if a node has no value to spend, it can still use normal
340    circuits. This allow casual user to use Tor without forcing them to run
341    a server.
343    Pro: Nodes have incentive to forward traffic as quick and as much as
344    possible to accumulate value.
346    Con: There is no proactive method for a node to rebalance its debt. It
347    has to wait until there happens to be a circuit in the opposite
348    direction.
350    Con: A node needs to build circuits in such a way that each node in the
351    circuit has to have good values to the next node. This requires
352    non-local knowledge and makes circuits less reliable as the values are
353    used up in the circuit.
355    Con: May discourage nodes to forward traffic in some circuits, as they
356    worry about spending more useful values to get less useful values in
357    return.
359 4.2. Treat all the traffic from the node with the same service;
360      hard reputation system.
362    This design is similar to 4.1, except that instead of having two
363    classes of circuits, there is only one. All the circuits are
364    prioritized based on the value of the interacting node.
366    Pro: It is simpler to design and give priority based on connections,
367    not circuits.
369    Con: A node only needs to keep a few guard nodes happy to forward their
370    traffic.
372    Con: Same as in 4.1, may discourage nodes to forward traffic in some
373    circuits, as they worry about spending more useful values to get less
374    useful values in return.
376 4.3. Treat all the traffic from the node with the same service;
377      soft reputation system.
379    Rather than a guaranteed system with accounting (as 4.1 and 4.2),
380    we instead try for a best-effort system. All bytes are in the same
381    class of service. You keep track of other Tors by key, and give them
382    service proportional to the service they have given you. That is, in
383    the past when you have tried to push bytes through them, you track the
384    number of bytes and the average bandwidth, and use that to weight the
385    priority of their connections if they try to push bytes through you.
387    Now you're going to get minimum service if you don't ever push bytes
388    for other people, and you get increasingly improved service the more
389    active you are. We should have memories fade over time (we'll have
390    to tune that, which could be quite hard).
392    Pro: Sybil attacks are pointless because new identities get lowest
393    priority.
395    Pro: Smoothly handles periods of both low and high network load. Rather
396    than keeping track of the ratio/difference between what he's done for
397    you and what you've done for him, simply keep track of what he's done
398    for you, and give him priority based on that.
400    Based on 3.3 above, it seems we should reward all the nodes in our
401    path, not just the first one -- otherwise the node can provide good
402    service only to its guards. On the other hand, there might be a
403    second-order effect where you want nodes to like you so that *when*
404    your guards choose you for a circuit, they'll be able to get good
405    performance. This tradeoff needs more simulation/analysis.
407    This approach focuses on incenting people to relay traffic, but it
408    doesn't do much for incenting them to allow exits. It may help in
409    one way through: if there are few exits, then they will attract a
410    lot of use, so lots of people will like them, so when they try to
411    use the network they will find their first hop to be particularly
412    pleasant. After that they're like the rest of the world though. (An
413    alternative would be to reward exit nodes with higher values. At the
414    extreme, we could even ask the directory servers to suggest the extra
415    values, based on the current availability of exit nodes.)
417    Pro: this is a pretty easy design to add; and it can be phased in
418    incrementally simply by having new nodes behave differently.
420 4.4. Centralized opinions from the reputation servers.
422    Have a set of official measurers who spot-check servers from the
423    directory to see if they really do offer roughly the bandwidth
424    they advertise. Include these observations in the directory. (For
425    simplicity, the directory servers could be the measurers.) Then Tor
426    servers give priority to other servers. We'd like to weight the
427    priority by advertised bandwidth to encourage people to donate more,
428    but it seems hard to distinguish between a slow server and a busy
429    server.
431    The spot-checking can be done anonymously to prevent selectively
432    performing only for the measurers, because hey, we have an anonymity
433    network.
435    We could also reward exit nodes by giving them better priority, but
436    like above this only will affect their first hop. Another problem
437    is that it's darn hard to spot-check whether a server allows exits
438    to all the pieces of the Internet that it claims to. If necessary,
439    perhaps this can be solved by a distributed reporting mechanism,
440    where clients that can reach a site from one exit but not another
441    anonymously submit that site to the measurers, who verify.
443    A last problem is that since directory servers will be doing their
444    tests directly (easy to detect) or indirectly (through other Tor
445    servers), then we know that we can get away with poor performance for
446    people that aren't listed in the directory. Maybe we can turn this
447    around and call it a feature though -- another reason to get listed
448    in the directory.
450 5. Recommendations and next steps.
452 5.1. Simulation.
454    For simulation trace, we can use two: one is what we obtained from Tor
455    and one from existing web traces.
457    We want to simulate all the four cases in 4.1-4. For 4.4, we may want
458    to look at two variations: (1) the directory servers check the
459    bandwidth themselves through Tor; (2) each node reports their perceived
460    values on other nodes, while the directory servers use EigenTrust to
461    compute global reputation and broadcast those.
463 5.2. Deploying into existing Tor network.