]> git.rkrishnan.org Git - tahoe-lafs/tahoe-lafs.git/blobdiff - Makefile
Makefile: re-enable tarball uploads for "master" branch
[tahoe-lafs/tahoe-lafs.git] / Makefile
index 1dda332cd935556b2a6e0befc592419f5bcf52f4..cd11acb12b295f9afcbccbe3ed4e48a314d54ca0 100644 (file)
--- a/Makefile
+++ b/Makefile
 
-# this Makefile requires GNU make
-
-# If you get an error message like the following:
-
-# error: Setup script exited with error: Python was built with version 7.1 of Visual Studio, and extensions need to be built with the same version of the compiler, but it isn't installed.
-
-# Then that probably means that you aren't using the the right
-# compiler.  In that case, try creating distutils configuration file
-# (as described in http://docs.python.org/inst/config-syntax.html ),
-# specifying which compiler to use.  For example, if you use either
-# the cygwin gcc compiler with mingw support, or the MINGW compiler,
-# then you can add the following lines to your .cfg file:
-# [build]
-# compiler=mingw32
+# NOTE: this Makefile requires GNU make
 
 default: build
 
 PYTHON=python
-PATHSEP=$(shell python -c 'import os ; print os.pathsep')
-TRIALPATH=$(shell which trial.py 2>/dev/null)
-ifeq ($(TRIALPATH),)
-TRIALPATH=$(shell which trial 2>/dev/null)
-endif
-ifeq ($(TRIALPATH),)
-TRIALPATH=$(shell $(PYTHON) -c "import os, sys; print repr(os.path.join(sys.prefix, \"Scripts\", \"trial.py\"))")
-endif
-ifeq ($(TRIALPATH),)
-TRIALPATH=$(shell $(PYTHON) -c "import os, sys; print repr(os.path.join(sys.prefix, \"Scripts\", \"trial\"))")
-endif
+export PYTHON
 
-REACTOR=
+# setup.py will extend sys.path to include our support/lib/... directory
+# itself. It will also create it in the beginning of the 'develop' command.
 
-PLAT = $(strip $(shell python -c "import sys ; print sys.platform"))
-ifeq ($(PLAT),win32)
- # The platform is Windows with cygwin build tools and the native Python interpreter.
- TRIALPATH := $(shell cygpath -w $(TRIALPATH))
- SUPPORT = $(shell cygpath -w $(shell pwd))\support
- SUPPORTLIB := $(SUPPORT)\Lib\site-packages
- SRCPATH := $(shell cygpath -w $(shell pwd))\src
-else
- PYVER=$(shell $(PYTHON) misc/pyver.py)
- SUPPORT = $(shell pwd)/support
- SUPPORTLIB = $(SUPPORT)/lib/$(PYVER)/site-packages
- SRCPATH := $(shell pwd)/src
-endif
-
-ifeq ($(PLAT),cygwin)
-REACTOR = poll
-endif
-
-ifneq ($(REACTOR),)
-       REACTOROPT := --reactor=$(REACTOR)
-else
-       REACTOROPT := 
-endif
+TAHOE=$(PYTHON) bin/tahoe
+SOURCES=src/allmydata src/buildtest static misc bin/tahoe-script.template twisted setup.py
 
-TRIAL=$(PYTHON) -u "$(TRIALPATH)" --rterrors $(REACTOROPT)
-
-build-deps: build
-       mkdir -p "$(SUPPORTLIB)"
-       PYTHONPATH="$(PYTHONPATH)$(PATHSEP)$(SUPPORTLIB)$(PATHSEP)." \
-         $(PYTHON) misc/dependencies/build-deps-setup.py install \
-        --prefix="$(SUPPORT)"
+.PHONY: make-version build
 
-EGGSPATH = $(shell $(PYTHON) misc/find-dep-eggs.py)
-show-eggspath:
-       @echo $(EGGSPATH)
+# This is necessary only if you want to automatically produce a new
+# _version.py file from the current git/darcs history.
+make-version:
+       $(PYTHON) ./setup.py update_version
 
-PP=PYTHONPATH="$(SRCPATH)$(PATHSEP)$(EGGSPATH)$(PATHSEP)$(PYTHONPATH)"
+.built:
+       $(MAKE) build
 
-.PHONY: make-version build
-make-version:
-       $(PYTHON) misc/make-version.py "allmydata-tahoe" "src/allmydata/_version.py"
+src/allmydata/_version.py:
+       $(MAKE) make-version
 
-build: make-version
-       $(PYTHON) ./setup.py build_ext -i
-       chmod +x bin/allmydata-tahoe
+# It is unnecessary to have this depend on build or src/allmydata/_version.py,
+# since 'setup.py build' always updates the version using 'darcsver --count-all-patches'.
+build:
+       $(PYTHON) setup.py build
+       touch .built
 
 # 'make install' will do the following:
 #   build+install tahoe (probably to /usr/lib/pythonN.N/site-packages)
 # 'make install PREFIX=/usr/local/stow/tahoe-N.N' will do the same, but to
 # a different location
 
-install: make-version
+install:
 ifdef PREFIX
        mkdir -p $(PREFIX)
-       $(PP) $(PYTHON) ./setup.py install \
-           --single-version-externally-managed \
+       $(PYTHON) ./setup.py install --single-version-externally-managed \
            --prefix=$(PREFIX) --record=./tahoe.files
 else
-       $(PP) $(PYTHON) ./setup.py install \
-           --single-version-externally-managed
+       $(PYTHON) ./setup.py install --single-version-externally-managed
 endif
 
 
 # TESTING
 
-.PHONY: check-deps test test-figleaf figleaf-output
-
+.PHONY: signal-error-deps test check test-coverage quicktest quicktest-coverage
+.PHONY: coverage-output get-old-coverage-coverage coverage-delta-output
 
-check-deps:
-       $(PP) \
-        $(PYTHON) -c 'import allmydata, zfec, foolscap, simplejson, nevow, OpenSSL'
-
-.checked-deps:
-       $(MAKE) check-deps
-       touch .checked-deps
 
 # you can use 'make test TEST=allmydata.test.test_introducer' to run just
 # test_introducer. TEST=allmydata.test.test_client.Basic.test_permute works
 # too.
 TEST=allmydata
 
-# use 'make test REPORTER=--reporter=bwverbose' from buildbot, to
+# use 'make test TRIALARGS=--reporter=bwverbose' from buildbot, to
 # suppress the ansi color sequences
 
-test: build .checked-deps
-       $(PP) \
-        $(TRIAL) $(REPORTER) $(TEST)
-
-test-figleaf: build .checked-deps
-       rm -f .figleaf
-       $(PP) \
-        $(TRIAL) --reporter=bwverbose-figleaf $(TEST)
-
-figleaf-output:
-       $(PP) \
-        $(PYTHON) misc/figleaf2html -d coverage-html -r src -x misc/figleaf.excludes
+# It is unnecessary to have this depend on build or src/allmydata/_version.py,
+# since 'setup.py test' always updates the version and builds before testing.
+test:
+       $(PYTHON) setup.py test $(TRIALARGS) -s $(TEST)
+       touch .built
+
+check: test
+
+test-coverage: build
+       rm -f .coverage
+       $(TAHOE) debug trial --reporter=bwverbose-coverage $(TEST)
+
+quicktest:
+       $(TAHOE) debug trial $(TRIALARGS) $(TEST)
+
+# "make tmpfstest" may be a faster way of running tests on Linux. It works best when you have
+# at least 330 MiB of free physical memory (to run the whole test suite). Since it uses sudo
+# to mount/unmount the tmpfs filesystem, it might prompt for your password.
+tmpfstest:
+       time make _tmpfstest 'TMPDIR=$(shell mktemp -d --tmpdir=.)'
+
+_tmpfstest:
+       sudo mount -t tmpfs -o size=400m tmpfs '$(TMPDIR)'
+       -$(TAHOE) debug trial --rterrors '--temp-directory=$(TMPDIR)/_trial_temp' $(TRIALARGS) $(TEST)
+       sudo umount '$(TMPDIR)'
+       rmdir '$(TMPDIR)'
+
+# code-coverage: install the "coverage" package from PyPI, do "make
+# quicktest-coverage" to do a unit test run with coverage-gathering enabled,
+# then use "make coverate-output-text" for a brief report, or "make
+# coverage-output" for a pretty HTML report. Also see "make .coverage.el" and
+# misc/coding_tools/coverage.el for emacs integration.
+
+quicktest-coverage:
+       rm -f .coverage
+       PYTHONPATH=. $(TAHOE) debug trial --reporter=bwverbose-coverage $(TEST)
+# on my laptop, "quicktest" takes 239s, "quicktest-coverage" takes 304s
+
+# --include appeared in coverage-3.4
+COVERAGE_OMIT=--include '$(CURDIR)/src/allmydata/*' --omit '$(CURDIR)/src/allmydata/test/*'
+coverage-output:
+       rm -rf coverage-html
+       coverage html -i -d coverage-html $(COVERAGE_OMIT)
+       cp .coverage coverage-html/coverage.data
        @echo "now point your browser at coverage-html/index.html"
 
-# after doing test-figleaf and figleaf-output, point your browser at
-# coverage-html/index.html
+.PHONY: upload-coverage .coverage.el pyflakes count-lines
+.PHONY: check-memory check-memory-once check-speed check-grid
+.PHONY: repl test-darcs-boringfile test-clean clean find-trailing-spaces
 
-.PHONY: upload-figleaf .figleaf.el pyflakes count-lines check-memory
-.PHONY: clean
+.coverage.el: .coverage
+       $(PYTHON) misc/coding_tools/coverage2el.py
 
-# 'upload-figleaf' is meant to be run with an UPLOAD_TARGET=host:/dir setting
+# 'upload-coverage' is meant to be run with an UPLOAD_TARGET=host:/dir setting
 ifdef UPLOAD_TARGET
 
 ifndef UPLOAD_HOST
@@ -145,145 +123,169 @@ ifndef COVERAGEDIR
 $(error COVERAGEDIR must be set when using UPLOAD_TARGET)
 endif
 
-upload-figleaf:
+upload-coverage:
        rsync -a coverage-html/ $(UPLOAD_TARGET)
-       ssh $(UPLOAD_HOST) make update-tahoe-figleaf COVERAGEDIR=$(COVERAGEDIR)
+       ssh $(UPLOAD_HOST) make update-tahoe-coverage COVERAGEDIR=$(COVERAGEDIR)
 else
-upload-figleaf:
+upload-coverage:
        echo "this target is meant to be run with UPLOAD_TARGET=host:/path/"
-       /bin/false
+       false
 endif
 
-.figleaf.el: .figleaf
-       $(PP) \
-        $(PYTHON) misc/figleaf2el.py .figleaf src
+code-checks: build version-and-path check-interfaces check-miscaptures -find-trailing-spaces -check-umids pyflakes
+
+version-and-path:
+       $(TAHOE) --version-and-path
+
+check-interfaces:
+       $(TAHOE) @misc/coding_tools/check-interfaces.py 2>&1 |tee violations.txt
+       @echo
+
+check-miscaptures:
+       $(PYTHON) misc/coding_tools/check-miscaptures.py $(SOURCES) 2>&1 |tee miscaptures.txt
+       @echo
 
 pyflakes:
-       $(PYTHON) -OOu `which pyflakes` src/allmydata
+       @$(PYTHON) -OOu `which pyflakes` $(SOURCES) |sort |uniq
+       @echo
+
+check-umids:
+       $(PYTHON) misc/coding_tools/check-umids.py `find $(SOURCES) -name '*.py' -not -name 'old.py'`
+       @echo
+
+-check-umids:
+       -$(PYTHON) misc/coding_tools/check-umids.py `find $(SOURCES) -name '*.py' -not -name 'old.py'`
+       @echo
+
+doc-checks: check-rst
+
+check-rst:
+       @for x in `find *.rst docs -name "*.rst"`; do rst2html -v $${x} >/dev/null; done 2>&1 |grep -v 'Duplicate implicit target name:'
+       @echo
 
 count-lines:
        @echo -n "files: "
-       @find src -name '*.py' |grep -v /build/ |wc --lines
+       @find src -name '*.py' |grep -v /build/ |wc -l
        @echo -n "lines: "
-       @cat `find src -name '*.py' |grep -v /build/` |wc --lines
+       @cat `find src -name '*.py' |grep -v /build/` |wc -l
        @echo -n "TODO: "
-       @grep TODO `find src -name '*.py' |grep -v /build/` | wc --lines
+       @grep TODO `find src -name '*.py' |grep -v /build/` | wc -l
+       @echo -n "XXX: "
+       @grep XXX `find src -name '*.py' |grep -v /build/` | wc -l
 
-check-memory: build
+check-memory: .built
        rm -rf _test_memory
-       $(PP) \
-        $(PYTHON) src/allmydata/test/check_memory.py upload
-       $(PP) \
-        $(PYTHON) src/allmydata/test/check_memory.py upload-self
-       $(PP) \
-        $(PYTHON) src/allmydata/test/check_memory.py upload-POST
-       $(PP) \
-        $(PYTHON) src/allmydata/test/check_memory.py download
-       $(PP) \
-        $(PYTHON) src/allmydata/test/check_memory.py download-GET
-
+       $(TAHOE) @src/allmydata/test/check_memory.py upload
+       $(TAHOE) @src/allmydata/test/check_memory.py upload-self
+       $(TAHOE) @src/allmydata/test/check_memory.py upload-POST
+       $(TAHOE) @src/allmydata/test/check_memory.py download
+       $(TAHOE) @src/allmydata/test/check_memory.py download-GET
+       $(TAHOE) @src/allmydata/test/check_memory.py download-GET-slow
+       $(TAHOE) @src/allmydata/test/check_memory.py receive
+
+check-memory-once: .built
+       rm -rf _test_memory
+       $(TAHOE) @src/allmydata/test/check_memory.py $(MODE)
+
+# The check-speed target uses a pre-established client node to run a canned
+# set of performance tests against a test network that is also
+# pre-established (probably on a remote machine). Provide it with the path to
+# a local directory where this client node has been created (and populated
+# with the necessary FURLs of the test network). This target will start that
+# client with the current code and then run the tests. Afterwards it will
+# stop the client.
+#
+# The 'sleep 5' is in there to give the new client a chance to connect to its
+# storageservers, since check_speed.py has no good way of doing that itself.
+
+check-speed: .built
+       if [ -z '$(TESTCLIENTDIR)' ]; then exit 1; fi
+       @echo "stopping any leftover client code"
+       -$(TAHOE) stop $(TESTCLIENTDIR)
+       $(TAHOE) start $(TESTCLIENTDIR)
+       sleep 5
+       $(TAHOE) @src/allmydata/test/check_speed.py $(TESTCLIENTDIR)
+       $(TAHOE) stop $(TESTCLIENTDIR)
+
+# The check-grid target also uses a pre-established client node, along with a
+# long-term directory that contains some well-known files. See the docstring
+# in src/allmydata/test/check_grid.py to see how to set this up.
+check-grid: .built
+       if [ -z '$(TESTCLIENTDIR)' ]; then exit 1; fi
+       $(TAHOE) @src/allmydata/test/check_grid.py $(TESTCLIENTDIR) bin/tahoe
+
+bench-dirnode: .built
+       $(TAHOE) @src/allmydata/test/bench_dirnode.py
+
+# the provisioning tool runs as a stand-alone webapp server
+run-provisioning-tool: .built
+       $(TAHOE) @misc/operations_helpers/provisioning/run.py
+
+# 'make repl' is a simple-to-type command to get a Python interpreter loop
+# from which you can type 'import allmydata'
+repl:
+       $(TAHOE) debug repl
 
 test-darcs-boringfile:
        $(MAKE)
-       $(PYTHON) misc/test-darcs-boringfile.py
+       $(PYTHON) misc/build_helpers/test-darcs-boringfile.py
+
+test-git-ignore:
+       $(MAKE)
+       $(PYTHON) misc/build_helpers/test-git-ignore.py
 
 test-clean:
-       find . |grep -v allfiles.tmp |grep -v src/allmydata/_version.py |sort >allfiles.tmp.old
+       find . |grep -vEe "_darcs|allfiles.tmp|src/allmydata/_(version|appname).py" |sort >allfiles.tmp.old
        $(MAKE)
        $(MAKE) clean
-       find . |grep -v allfiles.tmp |grep -v src/allmydata/_version.py |sort >allfiles.tmp.new
+       find . |grep -vEe "_darcs|allfiles.tmp|src/allmydata/_(version|appname).py" |sort >allfiles.tmp.new
        diff allfiles.tmp.old allfiles.tmp.new
 
+# It would be nice if 'make clean' deleted any automatically-generated
+# _version.py too, so that 'make clean; make all' could be useable as a
+# "what the heck is going on, get me back to a clean state', but we need
+# 'make clean' to work on non-darcs trees without destroying useful information.
 clean:
-       rm -rf build _trial_temp _test_memory .checked-deps
-       rm -f debian
-       rm -f `find src/allmydata -name '*.so' -or -name '*.pyc'`
-       rm -rf tahoe_deps.egg-info allmydata_tahoe.egg-info
+       rm -rf build _trial_temp _test_memory .built
+       rm -f `find src *.egg -name '*.so' -or -name '*.pyc'`
+       rm -rf src/allmydata_tahoe.egg-info
        rm -rf support dist
-       rm -rf setuptools*.egg *.pyc
-
-
-
-# DEBIAN PACKAGING
-
-VER=$(shell $(PYTHON) misc/get-version.py)
-DEBCOMMENTS="'make deb' build"
-
-show-version:
-       @echo $(VER)
-
-.PHONY: setup-deb deb-ARCH is-known-debian-arch
-.PHONY: deb-sid deb-feisty deb-edgy deb-etch
-
-deb-sid:
-       $(MAKE) deb-ARCH ARCH=sid
-deb-feisty:
-       $(MAKE) deb-ARCH ARCH=feisty
-# edgy uses the feisty control files for now
-deb-edgy:
-       $(MAKE) deb-ARCH ARCH=edgy TAHOE_ARCH=feisty
-# etch uses the feisty control files for now
-deb-etch:
-       $(MAKE) deb-ARCH ARCH=etch TAHOE_ARCH=feisty
-
-# we know how to handle the following debian architectures
-KNOWN_DEBIAN_ARCHES := sid feisty edgy etch
-
-ifeq ($(findstring x-$(ARCH)-x,$(foreach arch,$(KNOWN_DEBIAN_ARCHES),"x-$(arch)-x")),)
-is-known-debian-arch:
-       @echo "ARCH must be set when using setup-deb or deb-ARCH"
-       @echo "I know how to handle:" $(KNOWN_DEBIAN_ARCHES)
-       /bin/false
-else
-is-known-debian-arch:
-       /bin/true
-endif
-
-ifndef TAHOE_ARCH
-TAHOE_ARCH=$(ARCH)
-endif
-
-setup-deb: is-known-debian-arch
-       rm -f debian
-       ln -s misc/$(TAHOE_ARCH)/debian debian
-       chmod +x debian/rules
-
-# etch (current debian stable) has python-simplejson-1.3, which doesn't 
-#  support indent=
-# sid (debian unstable) currently has python-simplejson 1.7.1
-# edgy has 1.3, which doesn't support indent=
-# feisty has 1.4, which supports indent= but emits a deprecation warning
-# gutsy has 1.7.1
-#
-# we need 1.4 or newer
-
-deb-ARCH: is-known-debian-arch setup-deb
-       fakeroot debian/rules binary
-       echo
-       echo "The newly built .deb packages are in the parent directory from here."
-
-.PHONY: increment-deb-version
-.PHONY: deb-sid-head deb-edgy-head deb-feisty-head
-.PHONY: deb-etch-head
-
-# The buildbot runs the following targets after each change, to produce
-# up-to-date tahoe .debs. These steps do not create .debs for anything else.
-
-increment-deb-version: make-version
-       debchange --newversion $(VER) $(DEBCOMMENTS)
-deb-sid-head:
-       $(MAKE) setup-deb ARCH=sid
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
-deb-edgy-head:
-       $(MAKE) setup-deb ARCH=edgy TAHOE_ARCH=feisty
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
-deb-feisty-head:
-       $(MAKE) setup-deb ARCH=feisty
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
-deb-etch-head:
-       $(MAKE) setup-deb ARCH=etch TAHOE_ARCH=feisty
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
+       rm -rf `ls -d *.egg | grep -vEe"setuptools-|setuptools_darcs-|darcsver-"`
+       rm -rf *.pyc
+       rm -rf misc/dependencies/build misc/dependencies/temp
+       rm -rf misc/dependencies/tahoe_deps.egg-info
+       rm -f bin/tahoe bin/tahoe.pyscript
+
+find-trailing-spaces:
+       $(PYTHON) misc/coding_tools/find-trailing-spaces.py -r $(SOURCES)
+       @echo
+
+-find-trailing-spaces:
+       -$(PYTHON) misc/coding_tools/find-trailing-spaces.py -r $(SOURCES)
+       @echo
+
+# The test-desert-island target grabs the tahoe-deps tarball, unpacks it,
+# does a build, then asserts that the build did not try to download anything
+# as it ran. Invoke this on a new tree, or after a 'clean', to make sure the
+# support/lib/ directory is gone.
+
+fetch-and-unpack-deps:
+       test -f tahoe-deps.tar.gz || wget https://tahoe-lafs.org/source/tahoe/deps/tahoe-deps.tar.gz
+       rm -rf tahoe-deps
+       tar xzf tahoe-deps.tar.gz
+
+test-desert-island:
+       $(MAKE) fetch-and-unpack-deps
+       $(MAKE) 2>&1 | tee make.out
+       $(PYTHON) misc/build_helpers/check-build.py make.out no-downloads
+
+
+# TARBALL GENERATION
+.PHONY: tarballs upload-tarballs
+tarballs:
+       $(MAKE) make-version
+       $(PYTHON) setup.py sdist --formats=bztar,gztar,zip
+       $(PYTHON) setup.py sdist --sumo --formats=bztar,gztar,zip
+
+upload-tarballs:
+       @if [ "X${BB_BRANCH}" = "Xmaster" ] || [ "X${BB_BRANCH}" = "X" ]; then for f in dist/allmydata-tahoe-*; do flappclient --furlfile ~/.tahoe-tarball-upload.furl upload-file $$f; done ; else echo not uploading tarballs because this is not trunk but is branch \"${BB_BRANCH}\" ; fi