Zum Inhalt springen

Schlagwort: Drawing

Mit Schreibmaschinen Bilder machen

Der britische Künstler James Cook „zeichnet“ mit Schreibmaschinen Bilder seiner Umwelt. Wie ein Maler, aber halt mit klappernden Tippel-Maschinen. Das kriege ich so nicht mal mit einem Stift hin.

A short film about the production of my typewriter art of various scenes around the Essex countryside from December 2019. The three “typicitions” were partly-drawn from observation. I spent no more than 3 hours at each location and completed these drawings indoors (where it was nice and warm.) These drawings were typed on my 71″ Adler Tippa and 56″ Oliver Courier typewriter.


(Direktlink, via Laughing Squid)


(Direktlink)

1 Kommentar

Die Anleitung, ganz einfach eine Hand zu malen und was die Leute daraus machen

Das Internet ist voll mit Anleitungen, wie man irgendwelche Motive auf die einfachste Art und Weise zeichnen kann. Theoretisch zumindest. Hier wird auf Twitter gezeigt, wie einfach es sein kann, eine Hand zu malen. Theoretisch.

Und dann liefert Twitter eher so semigut.

Sagen wir es so: da ist noch Luft nach oben.

1 Kommentar

Interaktives Tool, das Zeichnungen in Bilder übersetzt

Christopher Hesse hat mit pix2pix ein Teil gecodet, dass Zeichnungen die im Browser entstehen, aus einem Pool von Fotos zu Bildern zusammensetzt.

Ich habe mich mal an einer Katze versucht. Wahrscheinlich sieht das schon besser aus, wenn man eine ordentliche Katze abliefert. Außerdem lassen sich Fassaden, Taschen und Schuhe generieren.

„The pix2pix model works by training on pairs of images such as building facade labels to building facades, and then attempts to generate the corresponding output image from any input image you give it. The idea is straight from the pix2pix paper, which is a good read.

[…]

Trained on about 2k stock cat photos and edges automatically generated from those photos. Generates cat-colored objects, some with nightmare faces. The best one I’ve seen yet was a cat-beholder.
Some of the pictures look especially creepy, I think because it’s easier to notice when an animal looks wrong, especially around the eyes. The auto-detected edges are not very good and in many cases didn’t detect the cat’s eyes, making it a bit worse for training the image translation model.“


(via Martin)

Einen Kommentar hinterlassen