]> git.rkrishnan.org Git - tahoe-lafs/tahoe-lafs.git/blob - docs/architecture.rst
Merge pull request #236 from daira/2725.timezone-test.0
[tahoe-lafs/tahoe-lafs.git] / docs / architecture.rst
1 .. -*- coding: utf-8-with-signature -*-
2
3 =======================
4 Tahoe-LAFS Architecture
5 =======================
6
7 1.  `Overview`_
8 2.  `The Key-Value Store`_
9 3.  `File Encoding`_
10 4.  `Capabilities`_
11 5.  `Server Selection`_
12 6.  `Swarming Download, Trickling Upload`_
13 7.  `The Filesystem Layer`_
14 8.  `Leases, Refreshing, Garbage Collection`_
15 9.  `File Repairer`_
16 10. `Security`_
17 11. `Reliability`_
18
19
20 Overview
21 ========
22
23 (See the `docs/specifications directory`_ for more details.)
24
25 There are three layers: the key-value store, the filesystem, and the
26 application.
27
28 The lowest layer is the key-value store. The keys are "capabilities" -- short
29 ASCII strings -- and the values are sequences of data bytes. This data is
30 encrypted and distributed across a number of nodes, such that it will survive
31 the loss of most of the nodes. There are no hard limits on the size of the
32 values, but there may be performance issues with extremely large values (just
33 due to the limitation of network bandwidth). In practice, values as small as
34 a few bytes and as large as tens of gigabytes are in common use.
35
36 The middle layer is the decentralized filesystem: a directed graph in which
37 the intermediate nodes are directories and the leaf nodes are files. The leaf
38 nodes contain only the data -- they contain no metadata other than the length
39 in bytes. The edges leading to leaf nodes have metadata attached to them
40 about the file they point to. Therefore, the same file may be associated with
41 different metadata if it is referred to through different edges.
42
43 The top layer consists of the applications using the filesystem.
44 Allmydata.com used it for a backup service: the application periodically
45 copies files from the local disk onto the decentralized filesystem. We later
46 provide read-only access to those files, allowing users to recover them.
47 There are several other applications built on top of the Tahoe-LAFS
48 filesystem (see the RelatedProjects_ page of the wiki for a list).
49
50 .. _docs/specifications directory: specifications
51 .. _RelatedProjects: https://tahoe-lafs.org/trac/tahoe-lafs/wiki/RelatedProjects
52
53 The Key-Value Store
54 ===================
55
56 The key-value store is implemented by a grid of Tahoe-LAFS storage servers --
57 user-space processes. Tahoe-LAFS storage clients communicate with the storage
58 servers over TCP.
59
60 Storage servers hold data in the form of "shares". Shares are encoded pieces
61 of files. There are a configurable number of shares for each file, 10 by
62 default. Normally, each share is stored on a separate server, but in some
63 cases a single server can hold multiple shares of a file.
64
65 Nodes learn about each other through an "introducer". Each server connects to
66 the introducer at startup and announces its presence. Each client connects to
67 the introducer at startup, and receives a list of all servers from it. Each
68 client then connects to every server, creating a "bi-clique" topology. In the
69 current release, nodes behind NAT boxes will connect to all nodes that they
70 can open connections to, but they cannot open connections to other nodes
71 behind NAT boxes. Therefore, the more nodes behind NAT boxes, the less the
72 topology resembles the intended bi-clique topology.
73
74 The introducer is a Single Point of Failure ("SPoF"), in that clients who
75 never connect to the introducer will be unable to connect to any storage
76 servers, but once a client has been introduced to everybody, it does not need
77 the introducer again until it is restarted. The danger of a SPoF is further
78 reduced in two ways. First, the introducer is defined by a hostname and a
79 private key, which are easy to move to a new host in case the original one
80 suffers an unrecoverable hardware problem. Second, even if the private key is
81 lost, clients can be reconfigured to use a new introducer.
82
83 For future releases, we have plans to decentralize introduction, allowing any
84 server to tell a new client about all the others.
85
86
87 File Encoding
88 =============
89
90 When a client stores a file on the grid, it first encrypts the file. It then
91 breaks the encrypted file into small segments, in order to reduce the memory
92 footprint, and to decrease the lag between initiating a download and
93 receiving the first part of the file; for example the lag between hitting
94 "play" and a movie actually starting.
95
96 The client then erasure-codes each segment, producing blocks of which only a
97 subset are needed to reconstruct the segment (3 out of 10, with the default
98 settings).
99
100 It sends one block from each segment to a given server. The set of blocks on
101 a given server constitutes a "share". Therefore a subset f the shares (3 out
102 of 10, by default) are needed to reconstruct the file.
103
104 A hash of the encryption key is used to form the "storage index", which is
105 used for both server selection (described below) and to index shares within
106 the Storage Servers on the selected nodes.
107
108 The client computes secure hashes of the ciphertext and of the shares. It
109 uses `Merkle Trees`_ so that it is possible to verify the correctness of a
110 subset of the data without requiring all of the data. For example, this
111 allows you to verify the correctness of the first segment of a movie file and
112 then begin playing the movie file in your movie viewer before the entire
113 movie file has been downloaded.
114
115 These hashes are stored in a small datastructure named the Capability
116 Extension Block which is stored on the storage servers alongside each share.
117
118 The capability contains the encryption key, the hash of the Capability
119 Extension Block, and any encoding parameters necessary to perform the
120 eventual decoding process. For convenience, it also contains the size of the
121 file being stored.
122
123 To download, the client that wishes to turn a capability into a sequence of
124 bytes will obtain the blocks from storage servers, use erasure-decoding to
125 turn them into segments of ciphertext, use the decryption key to convert that
126 into plaintext, then emit the plaintext bytes to the output target.
127
128 .. _`Merkle Trees`: http://systems.cs.colorado.edu/grunwald/Classes/Fall2003-InformationStorage/Papers/merkle-tree.pdf
129
130
131 Capabilities
132 ============
133
134 Capabilities to immutable files represent a specific set of bytes. Think of
135 it like a hash function: you feed in a bunch of bytes, and you get out a
136 capability, which is deterministically derived from the input data: changing
137 even one bit of the input data will result in a completely different
138 capability.
139
140 Read-only capabilities to mutable files represent the ability to get a set of
141 bytes representing some version of the file, most likely the latest version.
142 Each read-only capability is unique. In fact, each mutable file has a unique
143 public/private key pair created when the mutable file is created, and the
144 read-only capability to that file includes a secure hash of the public key.
145
146 Read-write capabilities to mutable files represent the ability to read the
147 file (just like a read-only capability) and also to write a new version of
148 the file, overwriting any extant version. Read-write capabilities are unique
149 -- each one includes the secure hash of the private key associated with that
150 mutable file.
151
152 The capability provides both "location" and "identification": you can use it
153 to retrieve a set of bytes, and then you can use it to validate ("identify")
154 that these potential bytes are indeed the ones that you were looking for.
155
156 The "key-value store" layer doesn't include human-meaningful names.
157 Capabilities sit on the "global+secure" edge of `Zooko's Triangle`_. They are
158 self-authenticating, meaning that nobody can trick you into accepting a file
159 that doesn't match the capability you used to refer to that file. The
160 filesystem layer (described below) adds human-meaningful names atop the
161 key-value layer.
162
163 .. _`Zooko's Triangle`: https://en.wikipedia.org/wiki/Zooko%27s_triangle
164
165
166 Server Selection
167 ================
168
169 When a file is uploaded, the encoded shares are sent to some servers. But to
170 which ones? The "server selection" algorithm is used to make this choice.
171
172 The storage index is used to consistently-permute the set of all servers nodes
173 (by sorting them by ``HASH(storage_index+nodeid)``). Each file gets a different
174 permutation, which (on average) will evenly distribute shares among the grid
175 and avoid hotspots. Each server has announced its available space when it
176 connected to the introducer, and we use that available space information to
177 remove any servers that cannot hold an encoded share for our file. Then we ask
178 some of the servers thus removed if they are already holding any encoded shares
179 for our file; we use this information later. (We ask any servers which are in
180 the first 2*``N`` elements of the permuted list.)
181
182 We then use the permuted list of servers to ask each server, in turn, if it
183 will hold a share for us (a share that was not reported as being already
184 present when we talked to the full servers earlier, and that we have not
185 already planned to upload to a different server). We plan to send a share to a
186 server by sending an 'allocate_buckets() query' to the server with the number
187 of that share. Some will say yes they can hold that share, others (those who
188 have become full since they announced their available space) will say no; when
189 a server refuses our request, we take that share to the next server on the
190 list. In the response to allocate_buckets() the server will also inform us of
191 any shares of that file that it already has. We keep going until we run out of
192 shares that need to be stored. At the end of the process, we'll have a table
193 that maps each share number to a server, and then we can begin the encode and
194 push phase, using the table to decide where each share should be sent.
195
196 Most of the time, this will result in one share per server, which gives us
197 maximum reliability.  If there are fewer writable servers than there are
198 unstored shares, we'll be forced to loop around, eventually giving multiple
199 shares to a single server.
200
201 If we have to loop through the node list a second time, we accelerate the query
202 process, by asking each node to hold multiple shares on the second pass. In
203 most cases, this means we'll never send more than two queries to any given
204 node.
205
206 If a server is unreachable, or has an error, or refuses to accept any of our
207 shares, we remove it from the permuted list, so we won't query it again for
208 this file. If a server already has shares for the file we're uploading, we add
209 that information to the share-to-server table. This lets us do less work for
210 files which have been uploaded once before, while making sure we still wind up
211 with as many shares as we desire.
212
213 Before a file upload is called successful, it has to pass an upload health
214 check. For immutable files, we check to see that a condition called
215 'servers-of-happiness' is satisfied. When satisfied, 'servers-of-happiness'
216 assures us that enough pieces of the file are distributed across enough
217 servers on the grid to ensure that the availability of the file will not be
218 affected if a few of those servers later fail. For mutable files and
219 directories, we check to see that all of the encoded shares generated during
220 the upload process were successfully placed on the grid. This is a weaker
221 check than 'servers-of-happiness'; it does not consider any information about
222 how the encoded shares are placed on the grid, and cannot detect situations in
223 which all or a majority of the encoded shares generated during the upload
224 process reside on only one storage server. We hope to extend
225 'servers-of-happiness' to mutable files in a future release of Tahoe-LAFS. If,
226 at the end of the upload process, the appropriate upload health check fails,
227 the upload is considered a failure.
228
229 The current defaults use ``k`` = 3, ``servers_of_happiness`` = 7, and ``N`` = 10.
230 ``N`` = 10 means that we'll try to place 10 shares. ``k`` = 3 means that we need
231 any three shares to recover the file. ``servers_of_happiness`` = 7 means that
232 we'll consider an immutable file upload to be successful if we can place shares
233 on enough servers that there are 7 different servers, the correct functioning
234 of any ``k`` of which guarantee the availability of the immutable file.
235
236 ``N`` = 10 and ``k`` = 3 means there is a 3.3x expansion factor. On a small grid, you
237 should set ``N`` about equal to the number of storage servers in your grid; on a
238 large grid, you might set it to something smaller to avoid the overhead of
239 contacting every server to place a file. In either case, you should then set ``k``
240 such that ``N``/``k`` reflects your desired availability goals. The best value for
241 ``servers_of_happiness`` will depend on how you use Tahoe-LAFS. In a friendnet
242 with a variable number of servers, it might make sense to set it to the smallest
243 number of servers that you expect to have online and accepting shares at any
244 given time. In a stable environment without much server churn, it may make
245 sense to set ``servers_of_happiness`` = ``N``.
246
247 When downloading a file, the current version just asks all known servers for
248 any shares they might have. Once it has received enough responses that it
249 knows where to find the needed k shares, it downloads at least the first
250 segment from those servers. This means that it tends to download shares from
251 the fastest servers. If some servers had more than one share, it will continue
252 sending "Do You Have Block" requests to other servers, so that it can download
253 subsequent segments from distinct servers (sorted by their DYHB round-trip
254 times), if possible.
255
256   *future work*
257
258   A future release will use the server selection algorithm to reduce the
259   number of queries that must be sent out.
260
261   Other peer-node selection algorithms are possible. One earlier version
262   (known as "Tahoe 3") used the permutation to place the nodes around a large
263   ring, distributed the shares evenly around the same ring, then walked
264   clockwise from 0 with a basket. Each time it encountered a share, it put it
265   in the basket, each time it encountered a server, give it as many shares
266   from the basket as they'd accept. This reduced the number of queries
267   (usually to 1) for small grids (where ``N`` is larger than the number of
268   nodes), but resulted in extremely non-uniform share distribution, which
269   significantly hurt reliability (sometimes the permutation resulted in most
270   of the shares being dumped on a single node).
271
272   Another algorithm (known as "denver airport" [#naming]_) uses the permuted hash to
273   decide on an approximate target for each share, then sends lease requests
274   via Chord routing. The request includes the contact information of the
275   uploading node, and asks that the node which eventually accepts the lease
276   should contact the uploader directly. The shares are then transferred over
277   direct connections rather than through multiple Chord hops. Download uses
278   the same approach. This allows nodes to avoid maintaining a large number of
279   long-term connections, at the expense of complexity and latency.
280
281 .. [#naming]  all of these names are derived from the location where they were
282         concocted, in this case in a car ride from Boulder to DEN. To be
283         precise, "Tahoe 1" was an unworkable scheme in which everyone who holds
284         shares for a given file would form a sort of cabal which kept track of
285         all the others, "Tahoe 2" is the first-100-nodes in the permuted hash
286         described in this document, and "Tahoe 3" (or perhaps "Potrero hill 1")
287         was the abandoned ring-with-many-hands approach.
288
289
290 Swarming Download, Trickling Upload
291 ===================================
292
293 Because the shares being downloaded are distributed across a large number of
294 nodes, the download process will pull from many of them at the same time. The
295 current encoding parameters require 3 shares to be retrieved for each
296 segment, which means that up to 3 nodes will be used simultaneously. For
297 larger networks, 8-of-22 encoding could be used, meaning 8 nodes can be used
298 simultaneously. This allows the download process to use the sum of the
299 available nodes' upload bandwidths, resulting in downloads that take full
300 advantage of the common 8x disparity between download and upload bandwith on
301 modern ADSL lines.
302
303 On the other hand, uploads are hampered by the need to upload encoded shares
304 that are larger than the original data (3.3x larger with the current default
305 encoding parameters), through the slow end of the asymmetric connection. This
306 means that on a typical 8x ADSL line, uploading a file will take about 32
307 times longer than downloading it again later.
308
309 Smaller expansion ratios can reduce this upload penalty, at the expense of
310 reliability (see `Reliability`_, below). By using an "upload helper", this
311 penalty is eliminated: the client does a 1x upload of encrypted data to the
312 helper, then the helper performs encoding and pushes the shares to the
313 storage servers. This is an improvement if the helper has significantly
314 higher upload bandwidth than the client, so it makes the most sense for a
315 commercially-run grid for which all of the storage servers are in a colo
316 facility with high interconnect bandwidth. In this case, the helper is placed
317 in the same facility, so the helper-to-storage-server bandwidth is huge.
318
319 See helper.rst_ for details about the upload helper.
320
321 .. _helper.rst: helper.rst
322
323
324 The Filesystem Layer
325 ====================
326
327 The "filesystem" layer is responsible for mapping human-meaningful pathnames
328 (directories and filenames) to pieces of data. The actual bytes inside these
329 files are referenced by capability, but the filesystem layer is where the
330 directory names, file names, and metadata are kept.
331
332 The filesystem layer is a graph of directories. Each directory contains a
333 table of named children. These children are either other directories or
334 files. All children are referenced by their capability.
335
336 A directory has two forms of capability: read-write caps and read-only caps.
337 The table of children inside the directory has a read-write and read-only
338 capability for each child. If you have a read-only capability for a given
339 directory, you will not be able to access the read-write capability of its
340 children. This results in "transitively read-only" directory access.
341
342 By having two different capabilities, you can choose which you want to share
343 with someone else. If you create a new directory and share the read-write
344 capability for it with a friend, then you will both be able to modify its
345 contents. If instead you give them the read-only capability, then they will
346 *not* be able to modify the contents. Any capability that you receive can be
347 linked in to any directory that you can modify, so very powerful
348 shared+published directory structures can be built from these components.
349
350 This structure enable individual users to have their own personal space, with
351 links to spaces that are shared with specific other users, and other spaces
352 that are globally visible.
353
354
355 Leases, Refreshing, Garbage Collection
356 ======================================
357
358 When a file or directory in the virtual filesystem is no longer referenced,
359 the space that its shares occupied on each storage server can be freed,
360 making room for other shares. Tahoe-LAFS uses a garbage collection ("GC")
361 mechanism to implement this space-reclamation process. Each share has one or
362 more "leases", which are managed by clients who want the file/directory to be
363 retained. The storage server accepts each share for a pre-defined period of
364 time, and is allowed to delete the share if all of the leases are cancelled
365 or allowed to expire.
366
367 Garbage collection is not enabled by default: storage servers will not delete
368 shares without being explicitly configured to do so. When GC is enabled,
369 clients are responsible for renewing their leases on a periodic basis at
370 least frequently enough to prevent any of the leases from expiring before the
371 next renewal pass.
372
373 See garbage-collection.rst_ for further information, and for how to configure
374 garbage collection.
375
376 .. _garbage-collection.rst: garbage-collection.rst
377
378
379 File Repairer
380 =============
381
382 Shares may go away because the storage server hosting them has suffered a
383 failure: either temporary downtime (affecting availability of the file), or a
384 permanent data loss (affecting the preservation of the file). Hard drives
385 crash, power supplies explode, coffee spills, and asteroids strike. The goal
386 of a robust distributed filesystem is to survive these setbacks.
387
388 To work against this slow, continual loss of shares, a File Checker is used
389 to periodically count the number of shares still available for any given
390 file. A more extensive form of checking known as the File Verifier can
391 download the ciphertext of the target file and perform integrity checks
392 (using strong hashes) to make sure the data is still intact. When the file is
393 found to have decayed below some threshold, the File Repairer can be used to
394 regenerate and re-upload the missing shares. These processes are conceptually
395 distinct (the repairer is only run if the checker/verifier decides it is
396 necessary), but in practice they will be closely related, and may run in the
397 same process.
398
399 The repairer process does not get the full capability of the file to be
400 maintained: it merely gets the "repairer capability" subset, which does not
401 include the decryption key. The File Verifier uses that data to find out
402 which nodes ought to hold shares for this file, and to see if those nodes are
403 still around and willing to provide the data. If the file is not healthy
404 enough, the File Repairer is invoked to download the ciphertext, regenerate
405 any missing shares, and upload them to new nodes. The goal of the File
406 Repairer is to finish up with a full set of ``N`` shares.
407
408 There are a number of engineering issues to be resolved here. The bandwidth,
409 disk IO, and CPU time consumed by the verification/repair process must be
410 balanced against the robustness that it provides to the grid. The nodes
411 involved in repair will have very different access patterns than normal
412 nodes, such that these processes may need to be run on hosts with more memory
413 or network connectivity than usual. The frequency of repair will directly
414 affect the resources consumed. In some cases, verification of multiple files
415 can be performed at the same time, and repair of files can be delegated off
416 to other nodes.
417
418   *future work*
419
420   Currently there are two modes of checking on the health of your file:
421   "Checker" simply asks storage servers which shares they have and does
422   nothing to try to verify that they aren't lying. "Verifier" downloads and
423   cryptographically verifies every bit of every share of the file from every
424   server, which costs a lot of network and CPU. A future improvement would be
425   to make a random-sampling verifier which downloads and cryptographically
426   verifies only a few randomly-chosen blocks from each server. This would
427   require much less network and CPU but it could make it extremely unlikely
428   that any sort of corruption -- even malicious corruption intended to evade
429   detection -- would evade detection. This would be an instance of a
430   cryptographic notion called "Proof of Retrievability". Note that to implement
431   this requires no change to the server or to the cryptographic data structure
432   -- with the current data structure and the current protocol it is up to the
433   client which blocks they choose to download, so this would be solely a change
434   in client behavior.
435
436
437 Security
438 ========
439
440 The design goal for this project is that an attacker may be able to deny
441 service (i.e. prevent you from recovering a file that was uploaded earlier)
442 but can accomplish none of the following three attacks:
443
444 1) violate confidentiality: the attacker gets to view data to which you have
445    not granted them access
446 2) violate integrity: the attacker convinces you that the wrong data is
447    actually the data you were intending to retrieve
448 3) violate unforgeability: the attacker gets to modify a mutable file or
449    directory (either the pathnames or the file contents) to which you have
450    not given them write permission
451
452 Integrity (the promise that the downloaded data will match the uploaded data)
453 is provided by the hashes embedded in the capability (for immutable files) or
454 the digital signature (for mutable files). Confidentiality (the promise that
455 the data is only readable by people with the capability) is provided by the
456 encryption key embedded in the capability (for both immutable and mutable
457 files). Data availability (the hope that data which has been uploaded in the
458 past will be downloadable in the future) is provided by the grid, which
459 distributes failures in a way that reduces the correlation between individual
460 node failure and overall file recovery failure, and by the erasure-coding
461 technique used to generate shares.
462
463 Many of these security properties depend upon the usual cryptographic
464 assumptions: the resistance of AES and RSA to attack, the resistance of
465 SHA-256 to collision attacks and pre-image attacks, and upon the proximity of
466 2^-128 and 2^-256 to zero. A break in AES would allow a confidentiality
467 violation, a collision break in SHA-256 would allow a consistency violation,
468 and a break in RSA would allow a mutability violation.
469
470 There is no attempt made to provide anonymity, neither of the origin of a
471 piece of data nor the identity of the subsequent downloaders. In general,
472 anyone who already knows the contents of a file will be in a strong position
473 to determine who else is uploading or downloading it. Also, it is quite easy
474 for a sufficiently large coalition of nodes to correlate the set of nodes who
475 are all uploading or downloading the same file, even if the attacker does not
476 know the contents of the file in question.
477
478 Also note that the file size and (when convergence is being used) a keyed
479 hash of the plaintext are not protected. Many people can determine the size
480 of the file you are accessing, and if they already know the contents of a
481 given file, they will be able to determine that you are uploading or
482 downloading the same one.
483
484 The capability-based security model is used throughout this project.
485 Directory operations are expressed in terms of distinct read- and write-
486 capabilities. Knowing the read-capability of a file is equivalent to the
487 ability to read the corresponding data. The capability to validate the
488 correctness of a file is strictly weaker than the read-capability (possession
489 of read-capability automatically grants you possession of
490 validate-capability, but not vice versa). These capabilities may be expressly
491 delegated (irrevocably) by simply transferring the relevant secrets.
492
493 The application layer can provide whatever access model is desired, built on
494 top of this capability access model. The first big user of this system so far
495 is allmydata.com. The allmydata.com access model currently works like a
496 normal web site, using username and password to give a user access to her
497 "virtual drive". In addition, allmydata.com users can share individual files
498 (using a file sharing interface built on top of the immutable file read
499 capabilities).
500
501
502 Reliability
503 ===========
504
505 File encoding and peer-node selection parameters can be adjusted to achieve
506 different goals. Each choice results in a number of properties; there are
507 many tradeoffs.
508
509 First, some terms: the erasure-coding algorithm is described as ``k``-out-of-``N``
510 (for this release, the default values are ``k`` = 3 and ``N`` = 10). Each grid will
511 have some number of nodes; this number will rise and fall over time as nodes
512 join, drop out, come back, and leave forever. Files are of various sizes, some
513 are popular, others are unpopular. Nodes have various capacities, variable
514 upload/download bandwidths, and network latency. Most of the mathematical
515 models that look at node failure assume some average (and independent)
516 probability 'P' of a given node being available: this can be high (servers
517 tend to be online and available >90% of the time) or low (laptops tend to be
518 turned on for an hour then disappear for several days). Files are encoded in
519 segments of a given maximum size, which affects memory usage.
520
521 The ratio of ``N``/``k`` is the "expansion factor". Higher expansion factors
522 improve reliability very quickly (the binomial distribution curve is very sharp),
523 but consumes much more grid capacity. When P=50%, the absolute value of ``k``
524 affects the granularity of the binomial curve (1-out-of-2 is much worse than
525 50-out-of-100), but high values asymptotically approach a constant (i.e.
526 500-of-1000 is not much better than 50-of-100). When P is high and the
527 expansion factor is held at a constant, higher values of ``k`` and ``N`` give
528 much better reliability (for P=99%, 50-out-of-100 is much much better than
529 5-of-10, roughly 10^50 times better), because there are more shares that can
530 be lost without losing the file.
531
532 Likewise, the total number of nodes in the network affects the same
533 granularity: having only one node means a single point of failure, no matter
534 how many copies of the file you make. Independent nodes (with uncorrelated
535 failures) are necessary to hit the mathematical ideals: if you have 100 nodes
536 but they are all in the same office building, then a single power failure
537 will take out all of them at once. Pseudospoofing, also called a "Sybil Attack",
538 is where a single attacker convinces you that they are actually multiple
539 servers, so that you think you are using a large number of independent nodes,
540 but in fact you have a single point of failure (where the attacker turns off
541 all their machines at once). Large grids, with lots of truly independent nodes,
542 will enable the use of lower expansion factors to achieve the same reliability,
543 but will increase overhead because each node needs to know something about
544 every other, and the rate at which nodes come and go will be higher (requiring
545 network maintenance traffic). Also, the File Repairer work will increase with
546 larger grids, although then the job can be distributed out to more nodes.
547
548 Higher values of ``N`` increase overhead: more shares means more Merkle hashes
549 that must be included with the data, and more nodes to contact to retrieve
550 the shares. Smaller segment sizes reduce memory usage (since each segment
551 must be held in memory while erasure coding runs) and improves "alacrity"
552 (since downloading can validate a smaller piece of data faster, delivering it
553 to the target sooner), but also increase overhead (because more blocks means
554 more Merkle hashes to validate them).
555
556 In general, small private grids should work well, but the participants will
557 have to decide between storage overhead and reliability. Large stable grids
558 will be able to reduce the expansion factor down to a bare minimum while
559 still retaining high reliability, but large unstable grids (where nodes are
560 coming and going very quickly) may require more repair/verification bandwidth
561 than actual upload/download traffic.