]> git.rkrishnan.org Git - tahoe-lafs/tahoe-lafs.git/blobdiff - Makefile
Makefile: re-enable tarball uploads for "master" branch
[tahoe-lafs/tahoe-lafs.git] / Makefile
index 6b12403e22b4b41198de3fffb01ee2b98d273d2e..cd11acb12b295f9afcbccbe3ed4e48a314d54ca0 100644 (file)
--- a/Makefile
+++ b/Makefile
@@ -9,39 +9,15 @@ export PYTHON
 # setup.py will extend sys.path to include our support/lib/... directory
 # itself. It will also create it in the beginning of the 'develop' command.
 
-PP=$(shell $(PYTHON) setup.py -q show_pythonpath)
-RUNPP=$(PYTHON) setup.py run_with_pythonpath
+TAHOE=$(PYTHON) bin/tahoe
+SOURCES=src/allmydata src/buildtest static misc bin/tahoe-script.template twisted setup.py
 
 .PHONY: make-version build
 
-# The 'darcsver' setup.py command comes in the 'darcsver' package:
-# http://pypi.python.org/pypi/darcsver It is necessary only if you want to
-# automatically produce a new _version.py file from the current darcs history.
+# This is necessary only if you want to automatically produce a new
+# _version.py file from the current git/darcs history.
 make-version:
-       $(PYTHON) ./setup.py darcsver --count-all-patches
-
-# We want src/allmydata/_version.py to be up-to-date, but it's a fairly
-# expensive operation (about 6 seconds on a just-before-0.7.0 tree, probably
-# because of the 332 patches since the last tag), and we've removed the need
-# for an explicit 'build' step by removing the C code from src/allmydata and
-# by running everything in place. It would be neat to do:
-#
-#src/allmydata/_version.py: _darcs/patches
-#      $(MAKE) make-version
-#
-# since that would update the embedded version string each time new darcs
-# patches were pulled, but 1) this would break non-darcs trees (i.e. building
-# from an exported tarball), and 2) without an obligatory 'build' step this
-# rule wouldn't be run frequently enought anyways.
-#
-# So instead, I'll just make sure that we update the version at least once
-# when we first start using the tree, and again whenever an explicit
-# 'make-version' is run, since then at least the developer has some means to
-# update things. It would be nice if 'make clean' deleted any
-# automatically-generated _version.py too, so that 'make clean; make all'
-# could be useable as a "what the heck is going on, get me back to a clean
-# state', but we need 'make clean' to work on non-darcs trees without
-# destroying useful information.
+       $(PYTHON) ./setup.py update_version
 
 .built:
        $(MAKE) build
@@ -49,19 +25,9 @@ make-version:
 src/allmydata/_version.py:
        $(MAKE) make-version
 
-# c.f. ticket #455, there is a problem in the intersection of setuptools,
-# twisted's setup.py, and nevow's setup.py . A Tahoe build, to satisfy its
-# dependencies, may try to build both Twisted and Nevow. If both of these
-# occur during the same invocation of 'setup.py develop', then the Nevow
-# build will fail with an "ImportError: No module named components". Running
-# the build a second time will succeed. Until there is a new version of
-# setuptools which properly sandboxes sys.modules (or a new version of nevow
-# which doesn't import twisted during its build, or a new version of twisted
-# which doesn't import itself during its build), we just build tahoe twice
-# and ignore the errors from the first pass. Updated 16-Sep-2008: now we need
-# three invocations.
-
-build: src/allmydata/_version.py
+# It is unnecessary to have this depend on build or src/allmydata/_version.py,
+# since 'setup.py build' always updates the version using 'darcsver --count-all-patches'.
+build:
        $(PYTHON) setup.py build
        touch .built
 
@@ -70,7 +36,7 @@ build: src/allmydata/_version.py
 # 'make install PREFIX=/usr/local/stow/tahoe-N.N' will do the same, but to
 # a different location
 
-install: src/allmydata/_version.py
+install:
 ifdef PREFIX
        mkdir -p $(PREFIX)
        $(PYTHON) ./setup.py install --single-version-externally-managed \
@@ -82,25 +48,10 @@ endif
 
 # TESTING
 
-.PHONY: signal-error-deps test test-figleaf quicktest quicktest-figleaf
-.PHONY: figleaf-output get-old-figleaf-coverage figleaf-delta-output
+.PHONY: signal-error-deps test check test-coverage quicktest quicktest-coverage
+.PHONY: coverage-output get-old-coverage-coverage coverage-delta-output
 
 
-signal-error-deps:
-       @echo
-       @echo
-       @echo "ERROR: Not all of Tahoe's dependencies are in place.  Please see docs/install.html for help on installing dependencies."
-       @echo
-       @echo
-       exit 1
-
-check-auto-deps:
-       $(PYTHON) setup.py -q check_auto_deps || $(MAKE) signal-error-deps
-
-.checked-deps:
-       $(MAKE) check-auto-deps
-       touch .checked-deps
-
 # you can use 'make test TEST=allmydata.test.test_introducer' to run just
 # test_introducer. TEST=allmydata.test.test_client.Basic.test_permute works
 # too.
@@ -109,47 +60,60 @@ TEST=allmydata
 # use 'make test TRIALARGS=--reporter=bwverbose' from buildbot, to
 # suppress the ansi color sequences
 
-test: build src/allmydata/_version.py
+# It is unnecessary to have this depend on build or src/allmydata/_version.py,
+# since 'setup.py test' always updates the version and builds before testing.
+test:
        $(PYTHON) setup.py test $(TRIALARGS) -s $(TEST)
+       touch .built
 
-fuse-test: .built .checked-deps
-       $(RUNPP) -d contrib/fuse -p -c runtests.py
+check: test
 
-test-figleaf: build src/allmydata/_version.py
-       rm -f .figleaf
-       $(PYTHON) setup.py trial --reporter=bwverbose-figleaf -s $(TEST)
+test-coverage: build
+       rm -f .coverage
+       $(TAHOE) debug trial --reporter=bwverbose-coverage $(TEST)
 
 quicktest:
-       $(PYTHON) misc/run-with-pythonpath.py trial $(TRIALARGS) $(TEST)
-
-quicktest-figleaf:
-       rm -f .figleaf
-       $(PYTHON) misc/run-with-pythonpath.py trial --reporter=bwverbose-figleaf $(TEST)
-
-figleaf-output:
-       $(RUNPP) -p -c "misc/figleaf2html -d coverage-html -r src -x misc/figleaf.excludes"
-       cp .figleaf coverage-html/figleaf.pickle
-       @echo "now point your browser at coverage-html/index.html"
-
-# use these two targets to compare this coverage against the previous run.
-# The deltas only work if the old test was run in the same directory, since
-# it compares absolute filenames.
-get-old-figleaf-coverage:
-       wget --progress=dot -O old.figleaf http://allmydata.org/tahoe-figleaf/current/figleaf.pickle
-
-figleaf-delta-output:
-       $(RUNPP) -p -c "misc/figleaf2html -d coverage-html -r src -x misc/figleaf.excludes -o old.figleaf"
-       cp .figleaf coverage-html/figleaf.pickle
+       $(TAHOE) debug trial $(TRIALARGS) $(TEST)
+
+# "make tmpfstest" may be a faster way of running tests on Linux. It works best when you have
+# at least 330 MiB of free physical memory (to run the whole test suite). Since it uses sudo
+# to mount/unmount the tmpfs filesystem, it might prompt for your password.
+tmpfstest:
+       time make _tmpfstest 'TMPDIR=$(shell mktemp -d --tmpdir=.)'
+
+_tmpfstest:
+       sudo mount -t tmpfs -o size=400m tmpfs '$(TMPDIR)'
+       -$(TAHOE) debug trial --rterrors '--temp-directory=$(TMPDIR)/_trial_temp' $(TRIALARGS) $(TEST)
+       sudo umount '$(TMPDIR)'
+       rmdir '$(TMPDIR)'
+
+# code-coverage: install the "coverage" package from PyPI, do "make
+# quicktest-coverage" to do a unit test run with coverage-gathering enabled,
+# then use "make coverate-output-text" for a brief report, or "make
+# coverage-output" for a pretty HTML report. Also see "make .coverage.el" and
+# misc/coding_tools/coverage.el for emacs integration.
+
+quicktest-coverage:
+       rm -f .coverage
+       PYTHONPATH=. $(TAHOE) debug trial --reporter=bwverbose-coverage $(TEST)
+# on my laptop, "quicktest" takes 239s, "quicktest-coverage" takes 304s
+
+# --include appeared in coverage-3.4
+COVERAGE_OMIT=--include '$(CURDIR)/src/allmydata/*' --omit '$(CURDIR)/src/allmydata/test/*'
+coverage-output:
+       rm -rf coverage-html
+       coverage html -i -d coverage-html $(COVERAGE_OMIT)
+       cp .coverage coverage-html/coverage.data
        @echo "now point your browser at coverage-html/index.html"
 
-# after doing test-figleaf and figleaf-output, point your browser at
-# coverage-html/index.html
-
-.PHONY: upload-figleaf .figleaf.el pyflakes count-lines
+.PHONY: upload-coverage .coverage.el pyflakes count-lines
 .PHONY: check-memory check-memory-once check-speed check-grid
 .PHONY: repl test-darcs-boringfile test-clean clean find-trailing-spaces
 
-# 'upload-figleaf' is meant to be run with an UPLOAD_TARGET=host:/dir setting
+.coverage.el: .coverage
+       $(PYTHON) misc/coding_tools/coverage2el.py
+
+# 'upload-coverage' is meant to be run with an UPLOAD_TARGET=host:/dir setting
 ifdef UPLOAD_TARGET
 
 ifndef UPLOAD_HOST
@@ -159,42 +123,69 @@ ifndef COVERAGEDIR
 $(error COVERAGEDIR must be set when using UPLOAD_TARGET)
 endif
 
-upload-figleaf:
+upload-coverage:
        rsync -a coverage-html/ $(UPLOAD_TARGET)
-       ssh $(UPLOAD_HOST) make update-tahoe-figleaf COVERAGEDIR=$(COVERAGEDIR)
+       ssh $(UPLOAD_HOST) make update-tahoe-coverage COVERAGEDIR=$(COVERAGEDIR)
 else
-upload-figleaf:
+upload-coverage:
        echo "this target is meant to be run with UPLOAD_TARGET=host:/path/"
        false
 endif
 
-.figleaf.el: .figleaf
-       $(RUNPP) -p -c "misc/figleaf2el.py .figleaf src"
+code-checks: build version-and-path check-interfaces check-miscaptures -find-trailing-spaces -check-umids pyflakes
+
+version-and-path:
+       $(TAHOE) --version-and-path
+
+check-interfaces:
+       $(TAHOE) @misc/coding_tools/check-interfaces.py 2>&1 |tee violations.txt
+       @echo
+
+check-miscaptures:
+       $(PYTHON) misc/coding_tools/check-miscaptures.py $(SOURCES) 2>&1 |tee miscaptures.txt
+       @echo
 
 pyflakes:
-       $(PYTHON) -OOu `which pyflakes` src/allmydata |sort |uniq
+       @$(PYTHON) -OOu `which pyflakes` $(SOURCES) |sort |uniq
+       @echo
+
+check-umids:
+       $(PYTHON) misc/coding_tools/check-umids.py `find $(SOURCES) -name '*.py' -not -name 'old.py'`
+       @echo
+
+-check-umids:
+       -$(PYTHON) misc/coding_tools/check-umids.py `find $(SOURCES) -name '*.py' -not -name 'old.py'`
+       @echo
+
+doc-checks: check-rst
+
+check-rst:
+       @for x in `find *.rst docs -name "*.rst"`; do rst2html -v $${x} >/dev/null; done 2>&1 |grep -v 'Duplicate implicit target name:'
+       @echo
 
 count-lines:
        @echo -n "files: "
-       @find src -name '*.py' |grep -v /build/ |wc --lines
+       @find src -name '*.py' |grep -v /build/ |wc -l
        @echo -n "lines: "
-       @cat `find src -name '*.py' |grep -v /build/` |wc --lines
+       @cat `find src -name '*.py' |grep -v /build/` |wc -l
        @echo -n "TODO: "
-       @grep TODO `find src -name '*.py' |grep -v /build/` | wc --lines
+       @grep TODO `find src -name '*.py' |grep -v /build/` | wc -l
+       @echo -n "XXX: "
+       @grep XXX `find src -name '*.py' |grep -v /build/` | wc -l
 
 check-memory: .built
        rm -rf _test_memory
-       $(RUNPP) -p -c "src/allmydata/test/check_memory.py upload"
-       $(RUNPP) -p -c "src/allmydata/test/check_memory.py upload-self"
-       $(RUNPP) -p -c "src/allmydata/test/check_memory.py upload-POST"
-       $(RUNPP) -p -c "src/allmydata/test/check_memory.py download"
-       $(RUNPP) -p -c "src/allmydata/test/check_memory.py download-GET"
-       $(RUNPP) -p -c "src/allmydata/test/check_memory.py download-GET-slow"
-       $(RUNPP) -p -c "src/allmydata/test/check_memory.py receive"
+       $(TAHOE) @src/allmydata/test/check_memory.py upload
+       $(TAHOE) @src/allmydata/test/check_memory.py upload-self
+       $(TAHOE) @src/allmydata/test/check_memory.py upload-POST
+       $(TAHOE) @src/allmydata/test/check_memory.py download
+       $(TAHOE) @src/allmydata/test/check_memory.py download-GET
+       $(TAHOE) @src/allmydata/test/check_memory.py download-GET-slow
+       $(TAHOE) @src/allmydata/test/check_memory.py receive
 
 check-memory-once: .built
        rm -rf _test_memory
-       $(RUNPP) -p -c "src/allmydata/test/check_memory.py $(MODE)"
+       $(TAHOE) @src/allmydata/test/check_memory.py $(MODE)
 
 # The check-speed target uses a pre-established client node to run a canned
 # set of performance tests against a test network that is also
@@ -210,48 +201,68 @@ check-memory-once: .built
 check-speed: .built
        if [ -z '$(TESTCLIENTDIR)' ]; then exit 1; fi
        @echo "stopping any leftover client code"
-       -$(PYTHON) bin/tahoe stop $(TESTCLIENTDIR)
-       $(PYTHON) bin/tahoe start $(TESTCLIENTDIR)
+       -$(TAHOE) stop $(TESTCLIENTDIR)
+       $(TAHOE) start $(TESTCLIENTDIR)
        sleep 5
-       $(PYTHON) src/allmydata/test/check_speed.py $(TESTCLIENTDIR)
-       $(PYTHON) bin/tahoe stop $(TESTCLIENTDIR)
+       $(TAHOE) @src/allmydata/test/check_speed.py $(TESTCLIENTDIR)
+       $(TAHOE) stop $(TESTCLIENTDIR)
 
 # The check-grid target also uses a pre-established client node, along with a
 # long-term directory that contains some well-known files. See the docstring
 # in src/allmydata/test/check_grid.py to see how to set this up.
 check-grid: .built
        if [ -z '$(TESTCLIENTDIR)' ]; then exit 1; fi
-       $(PYTHON) src/allmydata/test/check_grid.py $(TESTCLIENTDIR) bin/tahoe
+       $(TAHOE) @src/allmydata/test/check_grid.py $(TESTCLIENTDIR) bin/tahoe
+
+bench-dirnode: .built
+       $(TAHOE) @src/allmydata/test/bench_dirnode.py
+
+# the provisioning tool runs as a stand-alone webapp server
+run-provisioning-tool: .built
+       $(TAHOE) @misc/operations_helpers/provisioning/run.py
 
 # 'make repl' is a simple-to-type command to get a Python interpreter loop
 # from which you can type 'import allmydata'
 repl:
-       $(RUNPP) -p
+       $(TAHOE) debug repl
 
 test-darcs-boringfile:
        $(MAKE)
-       $(PYTHON) misc/test-darcs-boringfile.py
+       $(PYTHON) misc/build_helpers/test-darcs-boringfile.py
+
+test-git-ignore:
+       $(MAKE)
+       $(PYTHON) misc/build_helpers/test-git-ignore.py
 
 test-clean:
-       find . |grep -vEe "allfiles.tmp|src/allmydata/_(version|auto_deps|appname).py" |sort >allfiles.tmp.old
+       find . |grep -vEe "_darcs|allfiles.tmp|src/allmydata/_(version|appname).py" |sort >allfiles.tmp.old
        $(MAKE)
        $(MAKE) clean
-       find . |grep -vEe "allfiles.tmp|src/allmydata/_(version|auto_deps|appname).py" |sort >allfiles.tmp.new
+       find . |grep -vEe "_darcs|allfiles.tmp|src/allmydata/_(version|appname).py" |sort >allfiles.tmp.new
        diff allfiles.tmp.old allfiles.tmp.new
 
+# It would be nice if 'make clean' deleted any automatically-generated
+# _version.py too, so that 'make clean; make all' could be useable as a
+# "what the heck is going on, get me back to a clean state', but we need
+# 'make clean' to work on non-darcs trees without destroying useful information.
 clean:
-       rm -rf build _trial_temp _test_memory .checked-deps .built
-       rm -f debian
-       rm -f `find src/allmydata -name '*.so' -or -name '*.pyc'`
+       rm -rf build _trial_temp _test_memory .built
+       rm -f `find src *.egg -name '*.so' -or -name '*.pyc'`
        rm -rf src/allmydata_tahoe.egg-info
        rm -rf support dist
-       rm -rf setuptools*.egg *.pyc darcsver*.egg pyutil*.egg
+       rm -rf `ls -d *.egg | grep -vEe"setuptools-|setuptools_darcs-|darcsver-"`
+       rm -rf *.pyc
        rm -rf misc/dependencies/build misc/dependencies/temp
        rm -rf misc/dependencies/tahoe_deps.egg-info
-       rm -f bin/tahoe bin/tahoe-script.py
+       rm -f bin/tahoe bin/tahoe.pyscript
 
 find-trailing-spaces:
-       $(PYTHON) misc/find-trailing-spaces.py -r src
+       $(PYTHON) misc/coding_tools/find-trailing-spaces.py -r $(SOURCES)
+       @echo
+
+-find-trailing-spaces:
+       -$(PYTHON) misc/coding_tools/find-trailing-spaces.py -r $(SOURCES)
+       @echo
 
 # The test-desert-island target grabs the tahoe-deps tarball, unpacks it,
 # does a build, then asserts that the build did not try to download anything
@@ -259,14 +270,14 @@ find-trailing-spaces:
 # support/lib/ directory is gone.
 
 fetch-and-unpack-deps:
-       test -f tahoe-deps.tar.gz || wget http://allmydata.org/source/tahoe/deps/tahoe-deps.tar.gz
+       test -f tahoe-deps.tar.gz || wget https://tahoe-lafs.org/source/tahoe/deps/tahoe-deps.tar.gz
        rm -rf tahoe-deps
-       tar xf tahoe-deps.tar.gz
+       tar xzf tahoe-deps.tar.gz
 
 test-desert-island:
        $(MAKE) fetch-and-unpack-deps
        $(MAKE) 2>&1 | tee make.out
-       $(PYTHON) misc/check-build.py make.out no-downloads
+       $(PYTHON) misc/build_helpers/check-build.py make.out no-downloads
 
 
 # TARBALL GENERATION
@@ -277,161 +288,4 @@ tarballs:
        $(PYTHON) setup.py sdist --sumo --formats=bztar,gztar,zip
 
 upload-tarballs:
-       for f in dist/allmydata-tahoe-*; do \
-        xfer-client --furlfile ~/.tahoe-tarball-upload.furl $$f; \
-       done
-
-# DEBIAN PACKAGING
-
-VER=$(shell $(PYTHON) misc/get-version.py)
-DEBCOMMENTS="'make deb' build"
-
-show-version:
-       @echo $(VER)
-show-pp:
-       @echo $(PP)
-
-.PHONY: setup-deb deb-ARCH is-known-debian-arch
-.PHONY: deb-etch deb-lenny deb-sid
-.PHONY: deb-edgy deb-feisty deb-gutsy deb-hardy deb-intrepid deb-jaunty
-
-# we use misc/$TAHOE_ARCH/debian
-
-deb-etch:      # py2.4
-       $(MAKE) deb-ARCH ARCH=etch TAHOE_ARCH=etch
-deb-lenny:     # py2.5
-       $(MAKE) deb-ARCH ARCH=lenny TAHOE_ARCH=lenny
-deb-sid:
-       $(MAKE) deb-ARCH ARCH=sid TAHOE_ARCH=sid
-
-deb-edgy:     # py2.4
-       $(MAKE) deb-ARCH ARCH=edgy TAHOE_ARCH=etch
-deb-feisty:   # py2.5
-       $(MAKE) deb-ARCH ARCH=feisty TAHOE_ARCH=lenny
-deb-gutsy:    # py2.5
-       $(MAKE) deb-ARCH ARCH=gutsy TAHOE_ARCH=lenny
-deb-hardy:    # py2.5
-       $(MAKE) deb-ARCH ARCH=hardy TAHOE_ARCH=lenny
-deb-intrepid: # py2.5
-       $(MAKE) deb-ARCH ARCH=intrepid TAHOE_ARCH=lenny
-deb-jaunty:   # py2.6
-       $(MAKE) deb-ARCH ARCH=jaunty TAHOE_ARCH=lenny
-
-
-
-# we know how to handle the following debian architectures
-KNOWN_DEBIAN_ARCHES := etch lenny sid  edgy feisty gutsy hardy intrepid jaunty
-
-ifeq ($(findstring x-$(ARCH)-x,$(foreach arch,$(KNOWN_DEBIAN_ARCHES),"x-$(arch)-x")),)
-is-known-debian-arch:
-       @echo "ARCH must be set when using setup-deb or deb-ARCH"
-       @echo "I know how to handle:" $(KNOWN_DEBIAN_ARCHES)
-       false
-else
-is-known-debian-arch:
-       true
-endif
-
-ifndef TAHOE_ARCH
-TAHOE_ARCH=$(ARCH)
-endif
-
-setup-deb: is-known-debian-arch
-       rm -f debian
-       ln -s misc/$(TAHOE_ARCH)/debian debian
-       chmod +x debian/rules
-
-# etch (current debian stable) has python-simplejson-1.3, which doesn't
-#  support indent=
-# sid (debian unstable) currently has python-simplejson 1.7.1
-# edgy has 1.3, which doesn't support indent=
-# feisty has 1.4, which supports indent= but emits a deprecation warning
-# gutsy has 1.7.1
-#
-# we need 1.4 or newer
-
-deb-ARCH: is-known-debian-arch setup-deb
-       fakeroot debian/rules binary
-       @echo
-       @echo "The newly built .deb packages are in the parent directory from here."
-
-.PHONY: increment-deb-version
-.PHONY: deb-etch-head deb-lenny-head deb-sid-head
-.PHONY: deb-edgy-head deb-feisty-head deb-gutsy-head deb-hardy-head deb-intrepid-head deb-jaunty-head
-
-# The buildbot runs the following targets after each change, to produce
-# up-to-date tahoe .debs. These steps do not create .debs for anything else.
-
-increment-deb-version: make-version
-       debchange --newversion $(VER) $(DEBCOMMENTS)
-deb-etch-head:
-       $(MAKE) setup-deb ARCH=etch TAHOE_ARCH=etch
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
-deb-lenny-head:
-       $(MAKE) setup-deb ARCH=lenny TAHOE_ARCH=lenny
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
-deb-sid-head:
-       $(MAKE) setup-deb ARCH=sid TAHOE_ARCH=lenny
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
-
-deb-edgy-head:
-       $(MAKE) setup-deb ARCH=edgy TAHOE_ARCH=etch
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
-deb-feisty-head:
-       $(MAKE) setup-deb ARCH=feisty TAHOE_ARCH=lenny
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
-deb-gutsy-head:
-       $(MAKE) setup-deb ARCH=gutsy TAHOE_ARCH=lenny
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
-deb-hardy-head:
-       $(MAKE) setup-deb ARCH=hardy TAHOE_ARCH=lenny
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
-deb-intrepid-head:
-       $(MAKE) setup-deb ARCH=intrepid TAHOE_ARCH=lenny
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
-deb-jaunty-head:
-       $(MAKE) setup-deb ARCH=jaunty TAHOE_ARCH=lenny
-       $(MAKE) increment-deb-version
-       fakeroot debian/rules binary
-
-
-# These targets provide for windows native builds
-.PHONY: windows-exe windows-installer windows-installer-upload
-
-windows-exe: .built
-       $(RUNPP) -c "$(MAKE) -C windows windows-exe"
-
-windows-installer:
-       $(RUNPP) -c "$(MAKE) -C windows windows-installer"
-
-windows-installer-upload:
-       $(RUNPP) -c "$(MAKE) -C windows windows-installer-upload"
-
-
-# These targets provide for mac native builds
-.PHONY: mac-exe mac-upload mac-cleanup mac-dbg
-
-mac-exe: .built
-       $(MAKE) -C mac clean
-       VERSION=$(VER) $(RUNPP) -c "$(MAKE) -C mac build"
-
-mac-dist:
-       VERSION=$(VER) $(MAKE) -C mac diskimage
-
-mac-upload:
-       VERSION=$(VER) $(MAKE) -C mac upload
-
-mac-cleanup:
-       VERSION=$(VER) $(MAKE) -C mac cleanup
-
-mac-dbg:
-       cd mac && $(PP) $(PYTHON)w allmydata_tahoe.py
-
+       @if [ "X${BB_BRANCH}" = "Xmaster" ] || [ "X${BB_BRANCH}" = "X" ]; then for f in dist/allmydata-tahoe-*; do flappclient --furlfile ~/.tahoe-tarball-upload.furl upload-file $$f; done ; else echo not uploading tarballs because this is not trunk but is branch \"${BB_BRANCH}\" ; fi