Markku Reunanen
markku.reunanen [a] iki.fi
yliopistonlehtori
Aalto-yliopiston taiteiden ja suunnittelun korkeakoulu
Petri Saarikoski Päätoimittaja (Editor in Chief)
petsaari [a] utu.fi
yliopistonlehtori
Digitaalinen kulttuuri
Turun yliopisto
See below for an English version of the editorial.
Lähestymme tässä teemanumerossa tekstitaidetta sekä tutkimuksen kohteena että taiteellisena tekemisenä. Numeroon valikoitunut sisältö edustaa laajaa aihettaan monipuolisesti: esimerkkeinä nähtäviä töitä on tehty niin kirjoituskoneella, käsin kirjoittamalla kuin vanhoilla tietokoneillakin. Tämä kirjo ilmentää tekstitaiteen monitahoisuutta – yhtäältä mukana on nostalgiaa sekä vanhan, tunnistettavan tekniikan viehätystä, mutta samaan aikaan tekstitaide on myös vakavasti otettava ilmaisumuoto, joka kyseenalaistaa tämän päivän itsestäänselvyyksinä otetut mediat käytäntöineen.
Teemanumeron ainoassa vertaisarvioidussa artikkelissa Kirjoituskonesommitelma: Steve McCafferyn konkreettinen runous ja (uus)materiaalinen kieli Juha-Pekka Kilpiö tarkastelee Steve McCafferyn kirjoituskonerunoutta, etsien yhtymäkohtia language-runouden ja nykyisen uusmaterialistisen teorian välillä. McCafferyllä kirjoituskone ei ole ollut ainoastaan väline kirjainten ja sanojen asetteluun, vaan hän on käyttänyt sitä hahmojen tuottamiseen monilla kirjoituskoneen perustoimintoja uhmaavilla tavoilla. Artikkeli käsittelee paitsi language-runoutta, myös kirjoituskoneen laajempaa roolia mediahistoriassa.
Anders Carlssonin Beyond Encoding: A Critical Look at the Terminology of Text Graphics on tervetullut yleisesitys digitaalisen tekstitaiteen sanastosta sekä sen lukuisista omaleimaisista alalajeista. Katsaus luo aihepiiriä tuntemattomalle lukijalle perustan, jonka pohjalta on helpompi ymmärtää muiden kirjoittajien teksteissä vastaan tulevia käsitteitä.
Sekä Daniel Botz että Gleb J. Albert lähestyvät tekstitaidetta alakulttuurisesta suunnasta. Botzin “If You Can Read This…” – The Evolution of the Scroll Text Message Within the Demoscene keskittyy syvällisesti skrollerien – ruudulla vierivien tekstien – historiaan, jonka kuluessa yksinkertaiset liikkuvat tekstirivit ovat kehittyneet teknisesti ja visuaalisesti yhä vaikuttavammiksi esityksiksi. Albertin katsaus From Currency in the Warez Economy to Self-Sufficient Art Form: Text Mode Graphics and the “Scene” puolestaan pureutuu monipuolisesti niihin merkityksiin sekä käyttötapoihin, joita tekstitaiteella on demoharrastajien ja pelipiraattien keskuudessa ollut.
Michael Szpakowski sisällyttää kuvatiedostoihin, videoihin ja maalauksiinsa tekstiä eri tavoin, usein vastoin levityskanavien ja työvälineiden oletettuja käyttötarkoituksia. Szpakowskin essee Courting confusions—visual art and text kyseenalaistaa voimakkaasti ajatuksen taideteoksesta merkitysten säiliönä, muistuttaen taiteen perusvoiman olevan esteettinen. Tekstin tuominen kuvan sisällöksi kuitenkin hämmentää tätä asetelmaa puhuttelevilla tavoilla.
Myös Raquel Meyersin katsaus on varsin omakohtainen taiteellisen tekemisen reflektio. Tekstitaidetta monissa eri muodoissa tehnyt Meyers esittelee lukijoille oman kriittisen lähestymistapansa, jota hän kutsuu nimellä KYBDslöjd. Keys of Fury – Type in Beyond the Scrolling Horizon on lähes hengästyttävä läpileikkaus taiteilijan kyltymättömään uteliaisuuteen, jota leimaavat sekä musta huumori että pessimismi tämän päivän vieraannuttavan teknologian suhteen.
Kotimaista väriä teemanumeroon tuo Tero Heikkisen ja Markku Reunasen Rock, joka tiesi liikaa. Katsauksessa käsitellään samannimistä, Reima Mäkisen ja Riitta Uusitalon vuonna 1983 Sarjariin VIC-20:llä luomaa vuohiaiheista sarjakuvaa, joka lienee Suomen ensimmäinen tietokoneella tehty julkaistu sarjakuva. Commodoren historian ja tekijähaastattelujen lisäksi kirjoittajat ovat hakeneet tutkimukseensa lisää näkökulmia ”palauttamalla Rockin kotiin” eli tekemällä sarjakuvasta vuonna 2016 jälleen VIC-20:llä toimivan version.
Naz Shahrokh yhdistelee teossarjassa J’Arrive käsinkirjoitettua tekstiä valokuviin. Teoksista tulevat unenomaisesti mieleen päiväkirjat, henkilökohtaiset kokemukset, paikat, kartat, maisemakuvaukset ja matkustaminen. Samalla kuvat tuntuvat olevan riisuttuja minkäänlaisista viittauksista tunnistettaviin paikkoihin tai tapahtumiin, sekä tekstissä että kuvatuissa ympäristöissä. Jäljelle jää viivan tekemisen tapahtuma, kirjoittamisen ja piirtämisen prosessi, kuvaus paikan kohtaamisen henkilökohtaisuudesta.
Ascii Pron Art Remix on Dom Barran teoskokoelma, jossa hän on hyödyntänyt lähdemateriaalina varhaisimpia eroottisia digitaalisia kuvia, BBS-järjestelmissä ja RTTY-kaukokirjoittimilla levitettyjä pin-upeja. ”Glitchaamalla” tekstikuvat nykyaikaisilla kuvankäsittelyohjelmilla Barra tuo tekstimuotoiset teokset niille vieraaseen ympäristöön. Kuvat lakkaavat olemasta suoranaisesti pornoa, mutta säilyttävät silti jotakin alkuperäisestä luonteestaan. Barran työ kytkeytyy samalla laajemmin pornografian levittämisen käytäntöihin, glitch-taiteeseen ja internet-taiteeseen.
Sarjassa Joe Is Not Here Joseph Reyes on piirtänyt yksityiskohtaisia kuvia eläimistä ja eliöistä. Tarkemmin katsottuna osa kuvien viivoista muodostuu kirjoitetusta tekstistä, jossa muistellaan kadonneita paikkoja ja aikoja. Kuvien yksityiskohtaisuus ja kääntyilevä, hartaasti kirjoitettu teksti välittävät teoksien kiemuroihin uppoavalle katsojalle teosten tekemisen meditatiivista luonnetta.
Dan Farrimondin kokoelma Search of Tele-Textual Intelligence luo vaikutelman kokonaisesta teksti-TV-palvelusta, jossa tyypilliseen tapaan esitellään värikkäin kuvin matkustuspalveluja, käytettyjä autoja, urheilutuloksia ja puhelinseksiä. Sivuilla mainittu kultainen VHS-nauha viittaa äänilevyihin, joita lähetettiin avaruuteen Voyager-luotainten matkassa. Avaruusajan optimismia ja teksti-TV-nostalgiaa yhdistelevä kokoelma esittää humoristisesti teksti-TV:n mahdollisena ihmiskulttuurin kuvana ulkoisille tarkastelijoille, avaruuden muukalaisroduille.
Sarjakuvataiteilijana tunnettu Tommi Musturi on myös pitkän linjan aktiivinen Commodore 64 -harrastaja, joka purjehtii sujuvasti eri työvälineiden välillä. Unplanned Blocky Puzzles – Creating PETSCII for the Commodore 64 on galleria hänen PETSCII-merkistöllä tekemistä töistään. Musturi pohjustaa töitään lukijalle kertomalla lyhyesti PETSCII-grafiikan historiasta sekä omista työtavoistaan.
Tämän numeron muuta sisältöä ovat Petri Saarikosken arvio Teletext in Europe -antologiasta sekä saman kirjoittajan raportti Sveitsissä pidetystä Home Computer Subcultures and Society Before the Internet Age -tutkijatapaamisesta. Molemmat ovat samalla esimerkkejä siitä, kuinka aiemmin marginaalisina pidetyt aiheet – kuten tekstitaide – ovat alkaneet sittemmin herättää kiinnostusta tutkijoiden parissa, minkä myötä historiankirjoitus ei ole enää pelkkien harrastajien vastuulla.
Tämän numeron toimittaminen oli äärimmäisen kiinnostava, mutta myös haastava sukellus tekstitaiteen eri ilmenemiin. Toivomme, että tämä runsas paketti erilaisia kirjoituksia ja luovia töitä olisi numeron lukijoille yhtä mielenkiintoinen vyyhti kuin se on ollut meille toimittajille. WiderScreenin seuraava numero ilmestyy syksyllä 2017. Näillä näppäimillä kiitämme kirjoittajia, taiteilijoita sekä vertaisarvioijia heidän merkittävästä työpanoksestaan ja toivotamme lukijoillemme hyvää kesää!
Helsingissä ja Porissa 15.6.2017, vierailevat toimittajat Markku Reunanen ja Tero Heikkinen, sekä päätoimittaja Petri Saarikoski
Kansikuva: Tommi Musturi
Text Art
In this thematic issue of WiderScreen, we approach text art as both an object of study and artistic work. The contents represent the plurality of the topic: some of the works have been created using a typewriter, while others are hand-written or created on old computers. This spectrum highlights how multifaceted text art is as a topic – on the one hand there is surely nostalgia and attraction to old, recognizable technology, yet at the same time text art can be a highly reflective artistic practice, which questions today’s media and the practices that we take for granted.
In the only peer-reviewed article of this issue, Composition on a Typewriter: The Concrete Poetry and (new) Material Language of Steve McCaffery, Juha-Pekka Kilpiö examines Steve McCaffery’s typewriter poetry, searching for connections between language poetry and current theories of new materialism. For McCaffery, the typewriter is not only a device for placing words and letters, as he has used it to produce shapes in numerous ways that defy the its basic functionality. The article addresses language poetry, but also the role of the typewriter in media history.
Beyond Encoding: A Critical Look at the Terminology of Text Graphics by Anders Carlsson is a welcome overview of the terminology and subgenres of digital text art. The article serves as an introduction for the uninitiated reader and provides him/her a foundation for understanding the concepts that pop up in other texts of this issue.
Both Daniel Botz and Gleb Albert approach text art from a subcultural angle. Botz’s “If You Can Read This…” – The Evolution of the Scroll Text Message Within the Demoscene discusses the history of scrollers – text moving across the screen. During their existence simple scrolling lines of text have developed both technically and visually into increasingly impressive effects. Albert’s article, From Currency in the Warez Economy to Self-Sufficient Art Form: Text Mode Graphics and the “Scene”, digs deep into the meanings and uses that text art has had in the context of demo enthusiasts and software pirates.
Michael Szpakowski uses text in images, videos and paintings in different ways, often against the grain of the tools, media and distribution channels. His essay, Courting confusions—visual art and text, questions the notion of an artwork as a container for meanings, reminding us that the fundamental force of the artwork is an esthetic one. However, using text as the content of an image confuses this assertion in thought-provoking ways.
Raquel Meyers’ article, too, is a very personal account and reflection on artistic practice. Meyers, who has been creating text art in a number of different ways, presents us her own critical approach, which she calls KYBDslöjd. Keys of Fury – Type in Beyond the Scrolling Horizon is a breathtaking cross-section of an artist’s unquenchable curiosity, colored by dark humor and pessimism in the face of today’s estranging technology.
Tero Heikkinen and Markku Reunanen bring some local color to the issue with Rock, joka tiesi liikaa. (“Rock, who knew too much”) In this review the authors examine a comic strip created on a Commodore VIC-20 and published in the Sarjari magazine in 1983. The one-page story about a goat named Rock may well be the first Finnish published comic strip created on a computer. In addition to opening up a piece of Commodore history and artist interviews, the authors have expanded the scope of their research by “bringing Rock back home”, creating an interactive VIC-20 version of the strip in 2016.
Naz Shahrokh has combined hand-written text into photographs in the series J’Arrive. The works bring to mind diaries, personal experiences, locations, maps, scenery descriptions and travelling in a dreamlike fashion. At the same time the images appear to be devoid of any references to recognizable places or events, both in the hand-written text and in the depicted environments. What remains is the act of making the line, the process of writing and drawing as a depiction of the personal nature of experiencing a place.
In the collection Ascii Pron Art Remix, Dom Barra has utilized the earliest known digital erotic imagery, the text-based pin-ups distributed through Bulletin Board Systems (BBS) and Radio Teletype (RTTY). By “glitching” the images with current image processing software, Barra brings the works into an unfamiliar environment. The images cease to be pornography, but still retain something of their original nature. Barra’s work is closely tied to the themes of pornography distribution, glitch art and internet art.
In the series Joe Is Not Here Joseph Reyes has drawn detailed pictures of animals and other creatures. When taking a closer look, part of the lines in the images are revealed to be written text, in which reminiscences of lost places and times can be found. The intricate detail of the drawings together with the twisting, laboriously written text deliver something about the meditative quality of creating these works to the viewer.
Dan Farrimond’s collection Search of Tele-Textual Intelligence gives an impression of an entire teletext service, complete with colorful pages depicting the usual travel services, used car sales, sports results and phone sex. The golden VHS tape mentioned on the pages refers to the audio recordings sent along the Voyager space probes. The collection is humorously depicted as a snapshot of human culture on Earth to outside alien observers, peppered with space-age optimism and teletext nostalgia.
Comic book artist Tommi Musturi is also a long term Commodore 64 hobbyist, who jumps between different media with ease. Unplanned Blocky Puzzles – Creating PETSCII for the Commodore 64 is a gallery of his PETSCII works. Musturi’s foreword provides readers with an overview of the history of PETSCII graphics and his own working methods.
In addition, the issue features Petri Saarikoski’s review of the anthology Teletext in Europe and a report from the Home Computer Subcultures and Society Before the Internet Age symposium held in Switzerland, also by the same author. Both are examples of how topics previously considered marginal – such as text art – have recently attracted more attention from researchers. As a result, history writing on these topics is no longer purely a hobbyist effort.
On behalf of the editorial board, we would like to wish the readers a pleasant and illuminating journey with this issue. We would also like to thank the authors and the anonymous reviewers for their hard work. The next issue of WiderScreen will be published in autumn 2017. Thank you all and have a pleasant summer!
In Helsinki and Pori, June 15 2017, visiting editors Markku Reunanen and Tero Heikkinen, and editor in chief Petri Saarikoski
Käsittelen artikkelissani kirjoituskoneella toteutettua konkreettista runoutta kielen materiaalisuuden näkökulmasta. Analysoin Steve McCafferyn 1960- ja 70-luvun tuotantoa, joka on tekstuuriltaan siinä määrin runsasta ja jopa kaoottista, että sitä on luonnehdittu termillä dirty concrete (erotuksena 50-luvun viileästä, hallitusta ja puhdaslinjaisesta konkretismista). McCafferyllä (s. 1947) on yhteyksiä yhdysvaltalaiseen kokeelliseen runouteen, erityisesti niin sanottuun language-suuntaukseen, jonka piirissä teoretisoitiin 1970-luvulta lähtien kysymystä kielen materiaalisuudesta. Hänen teoreettisia tekstejään luonnehtii käsitys kielestä voimien ja intensiteettien kenttänä hyvinkin deleuzeläisessä mielessä; kielessä figuroi aina ”protosemanttisia” elementtejä, kaikkea ali- ja ylijäämää, joka ei palaudu representaatioon eikä edes kommunikaatioon. Tällaisessa kielikäsityksessä voi nähdä yhteyksiä nykyiseen uusmaterialistiseen teoriaan, joten McCafferyn konkreettista runoutta on kiinnostavaa tarkastella sitä vasten.
Language-runouden materiaalinen poetiikka
Aloitan käsittelemällä language-runoutta ja sen kielikäsitystä ja tarkastelen, missä määrin sitä voi suhteuttaa nykyiseen uusmaterialismiin. Sen jälkeen taustoitan lyhyesti kirjoituskoneen ominaispiirteitä ja sen asemaa mediahistoriassa. Artikkelin jälkipuoliskolla analysoin McCafferyn konkreettista runoutta erityisesti siitä näkökulmasta, miten kirjoituskoneen ominaisuudet on siinä otettu poeettiseen käyttöön.
Language-runous muotoutui 1960-luvun lopulta ja 70-luvun alusta lähtien sekä Yhdysvaltain itä- että länsirannikolla, New Yorkissa ja San Franciscossa. Suuntauksen runoilijoita ovat esimerkiksi Bruce Andrews, Rae Armantrout, Charles Bernstein, Lyn Hejinian ja Ron Silliman. Kirjallisuushistoriallisesti sen edeltäjinä voi pitää amerikkalaisen modernismin kokeellista laitaa, kuten Gertrude Steinia, ja New York Schoolin runoutta, erityisesti John Ashberyä. Tärkeitä taustatekijöitä olivat ranskalaisen teorian (Barthes, Derrida, Foucault) tulo amerikkalaiseen keskusteluun ja runoilijoista monen toiminta Vietnam- ja kansalaisoikeusliikkeessä. Erityisesti alkuvaiheessa suuntaus operoi vakiintuneitten kirjallisuusinstituutioitten ulkopuolella ja oppositiossa yliopistojen luovan kirjoittamisen ohjelmia vastaan. Julkaisukanavia olivat pienkustantamot, kuten Hejinianin Tuumba Press, ja tärkeitä keskustelufoorumeita erilaiset luentatilaisuudet ja kirjallisuuslehdet, tärkeimpänä L=A=N=G=U=A=G=E, jota Bernstein ja Andrews toimittivat vuosina 1978–1982 (languagen poetiikasta ja kirjallisuushistoriallisesta kontekstista ks. Bernstein 2012, Perelman 1996 ja Lehto 2008).
McCafferyä, joka syntyi Englannissa ja muutti Kanadaan vuonna 1968, voi pitää eräänlaisena languagen ulkojäsenenä. Hänen tekstejään julkaistiin L=A=N=G=U=A=G=E:ssa, ja hän oli mukana viiden tekijän yhteisteoksessa Legend (1980). McCafferyn tuotantoa ei voi kuitenkaan pelkistää languagen kontekstiin. Vähintään yhtä tärkeitä viitepisteitä olivat äänirunousryhmä The Four Horsemen sekä niin sanottu Toronto Research Group (TRG), jonka nimissä McCaffery ja bpNichol (Barrie Philip Nichol) julkaisivat raporteiksi nimettyjä tekstejä vuodesta 1973 alkaen[1]. Niissä kehitellään vapaamuotoisen esseistiikan keinoin kokeellista poetiikkaa ja käsitellään esimerkiksi kirjan käsitettä, äänirunoutta ja kokeellisen kääntämisen tekniikoita.
McCafferyn panos languagen teoreettisiin keskusteluihin oli kuitenkin tärkeä, joten on paikallaan taustoittaa suuntauksen kielikäsitystä. Esseessään ”The Death of the Subject” McCaffery (1980) toteaa: ”Language is material and primary and what’s experienced is the tension and relationship of letters and lettristic clusters, simultaneously struggling towards, yet refusing to become, significations.” Juuri kysymystä kielen materiaalisuudesta voi pitää language-poetiikan keskeisenä piirteenä. Language ei kuitenkaan ole mikään yhtenäinen koulukunta, ja se poikkeaa esimerkiksi historiallisista avantgardeliikkeistä siinä, ettei sillä ole selvää ohjelmaa eikä varsinkaan jäsenluetteloa. Pikemminkin kyse on vapaamuotoisesta keskusteluyhteisöstä. Näin ollen ei myöskään ole yksiselitteistä, mitä materiaalisuus languagen piirissä tarkoittaa.
Varhaisvaiheen keskustelut koskivat erityisesti kysymystä referenssistä eli kielen kyvystä viitata maailmaan. Yksi languagen avainteksteistä, Ron Sillimanin essee, tiivistää referenssin ongelman jo otsikossaan: ”Disappearance of the Word, Appearance of the World”. Kun kieli pelkistyy yksinomaan referentiaaliseen funktioon ja sen oletetaan viittaavan todellisuuteen jäännöksettä ja yksiselitteisesti, sen omaa aistimellisuutta, äänteellisiä ominaisuuksia tai kirjoituksen jälkeä, ei enää havaita. Sillimanin mukaan näin tapahtuu erityisesti myöhäiskapitalistisissa yhteiskunnissa. Kieli ajautuu tavarafetisismiin, muuttuu läpinäkyväksi ja katoaa referentin tieltä. Muiden hyödykkeiden tavoin se näyttäytyy pelkkänä lopputuotteena, irrallaan tuottamisensa aineellisista ehdoista. Silliman tiivistää, että tavarafetisismiin on kirjautunut unelma taiteesta vailla mediaa. (Silliman 2003, 10–14; ks. myös McCaffery 1980.) Silliman (2007, xviii) kuitenkin tarkentaa, että tarkoitus ei ollut kieltää referenssiä kaikkineen; sitä vain ei haluttu ottaa annettuna eikä olettaa luonnolliseksi. Sillimanilla kielen materiaalisuus ja ”kouriintuntuvuus” (tangibility) on olennaisesti kytkeytynyt historialliseen materialismiin. Tällöin runouden sisältö ei ole erotettavissa tekstin tuotannon, jakelun ja vastaanoton prosesseista, yhteisöistä ja yleisöistä, jotka käsittelevät materiaalisia tekstejä.
Referenssin yhteydessä on usein puhuttu kielen ”läpinäkyvyydestä” ja verrattu kieltä ikkunaan. McCaffery kirjoittaa:
REFERENCE I take it, is that kind of blindness a window makes of the pane it is; that motoric thrust of the word which takes you out of language into a tenuous world of the other and so prevents you seeing what it is you see (McCaffery 1980).
Materiaalisuus viittaa siis niihin ominaisuuksiin, jotka jollain tavoin viivyttävät referenssiä ja suuntaavat huomion kielen omaan pintaan, jotta se ei pelkistyisi ainoastaan ikkunaksi maailmaan.
Languagen keskusteluissa materiaalisuus viittaa useimmiten kieleen ja runokeinoihin hyvin laajassa mielessä, mukaan lukien esimerkiksi äänteelliset ominaisuudet tai sellaiset fragmentaariset tekstit, joissa erillisiä katkelmia ei voi liittää mihinkään tunnistettavaan kontekstiin, jolloin niiden oma muoto nousee etualalle. Alan Golding (2006, 251) huomauttaa kuitenkin, että language-runoutta analysoitaessa tekstien varsinaiset visuaaliset ominaisuudet ovat itse asiassa jääneet melko vähälle huomiolle. Näyttäisikin siltä, että erityisen tehokkaasti kielen läpinäkyvyyttä problematisoivat ja haastavat sellaiset tekstit, joissa itse graafinen pinta on korostuneen visuaalista, kuten juuri kirjoituskoneella toteutetuissa runoissa. Representoidun maailman sijaan ne suuntaavat huomion juuri tuottamisensa menetelmiin ja tekstiin inskriptiona.
Jo 1970- ja 80-luvun language-teksteissä materiaalisuus hahmottuu ylijäämänä, joka ei palaudu esimerkiksi puhujan intentioon, mutta erityisesti 2000-luvun teksteissään McCaffery kehittelee materiaalisuutta entistä aktiivisempaan ja liikkuvampaan suuntaan. Artikkelikokoelmassaan Prior to Meaning (2001) McCaffery toteaa, että hänelle kirjoitus on ”voimien materiaalinen kenttä” (”a material scene of forces”). Kyse ei ole siitä, miten kieltä käytetään, vaan miten kieli itse käyttäytyy. (McCaffery 2001, xv.) McCafferyn lanseeraama ”protosemantiikan” käsite viittaa voimien moneuteen, joka operoi jatkuvasti kielessä semanttisen merkityksen ja kommunikaation alla tai tuolla puolen. Esimerkiksi aakkoskirjoitus on aina luonteeltaan anagrammaattista, koska se perustuu tiettyyn materiaaliseen varantoon, jonka elementtejä permutoidaan. Nämä elementit on aina mahdollista järjestää jotenkin toisin. Tällöin kirjainten järjestyminen sanoiksi näyttäytyy väliaikaisena ja epävakaana muodostelmana. Anagrammaattinen virtaus sanatason alapuolella on juuri protosemanttista, ja tästä syystä aakkoskirjoituksessa on aina paljon enemmän mahdollista informaatiota kuin merkitystä (McCaffery 2001, xxi, xxiii). McCaffery toteaa kehittelevänsä ”epävakaiden kielijärjestelmien materiaalista poetiikkaa” (2001, xvi).
Languagen käsitystä kielen materiaalisuudesta voi viedä vielä pidemmälle nykyisen uusmaterialistisen teorian avulla. Uusmaterialismi poikkeaa aikaisemmista materialismin teorioista, kuten dialektisesta materialismista, lähtökohdassaan, että materia on itsessään aktiivinen toimija: sillä on kykyjä, jotka eivät palaudu esimerkiksi inhimilliseen ajatteluun tai kieleen. Jane Bennett (2010) puhuukin vitaalisesta, elinvoimaisesta materialismista ja argumentoi, että myös ei-orgaanisessa aineessa väreilee elämää ja voimia. Uusmaterialismi hylkää ajatuksen materiasta staattisena ja pysyvänä; se ei ole niinkään entiteetti vaan energiaa ja tulemisen prosesseja. Tällöin myös toimijuus on jakautunut monenlaisten elementtien kesken, yhtä lailla inhimillisten kuin ei-inhimillisten.
Uusmaterialismi pyrkii tarkistamaan ja problematisoimaan kulttuurisen käänteen tuottamaa käsitystä, että diskurssit ja kulttuuriset kontekstit hallitsevat kaikkea merkityksenmuodostusta. Kyse ei kuitenkaan ole mistään yksisilmäisestä oppositiosta. Kuten Karen Barad (2007) osoittaa, materiaalinen ja diskursiivinen ovat aina kietoutuneet toisiinsa ja edellyttävät toinen toistaan.
Barbara Bolt (2013, 7) tiivistää, että taiteentutkimuksessa uusmaterialismi tuo yhteen ruumiillisen tekijän, median materiaalisuuden, tekovälineet ja teknologiat sekä tiedon ja ”immateriaaliset” diskurssit, jotka kehystävät taidetta. Jos tarkennetaan, että diskurssit ovat yhtä lailla materiaalisia, tämä kuvaa hyvin tarkasti sitä, miten materiaalisuus ymmärrettiin jo varhaisvaiheen language-poetiikassa: materiaalisuus koskee sitä, millaisia yhteisöjä muodostuu ja miten tekijät kirjoittavat yhdessä; miten kirjoitusteknologiat ja -alustat otetaan käyttöön ja miten kirjoja levitetään; ja miten tekijöiden oma teoreettinen diskurssi käsitteellistää kaikkia näitä materiaalisina käytäntöinä, jolloin materiaalisuus ja diskursiivisuus käyvät yksiin. Vaikka languagen marxilainen painotus saattaa implikoida hieman staattista käsitystä materiaalisuudesta, jo tässä varhaisvaiheessa on yhtä kaikki läsnä ajatus kielen fyysisistä ominaisuuksista ja dynaamisesta toiminnasta.
Kenties kaikkein keskeisimpiä herätteitä uusmaterialismille on ollut Gilles Deleuzen ja Félix Guattarin filosofia ja sen radikaali materialistinen ontologia. Se vaikuttaa monella tapaa myös languagen ja McCafferyn tuotannon taustalla. Teoksen Mille Plateaux (1980) esipuheessa Deleuze ja Guattari esittelevät sommitelman käsitteen, ja nimenomaan kirjallisuuden kontekstissa:
Kirjassa, kuten kaikessa muussakin, on artikulaation ja segmentaation viivoja, kerrostumia, territorioita, mutta myös paon viivoja, deterritorialisaation ja destratifikaation liikkeitä. Noiden viivojen mukaisesti virtaamien verrannolliset nopeudet tuottavat suhteellisen viiveen ja viskositeetin, tai vaihtoehtoisesti saostumisen ja murtumisen kaltaisia ilmiöitä […]. Kaikki tämä – mitattavat viivat ja nopeudet – muodostaa koneellisen sommitelman (agencement machinique). Kirja on tällainen sommitelma, eikä sitä näin ollen voi lukea kenenkään omaksi. (Deleuze & Guattari 1992, 23.)
Bennett (2010, 23–24) tiivistää, että sommitelmassa monet eripariset elementit – inhimilliset ja ei-inhimilliset, kielelliset ja aineelliset – kerääntyvät väliaikaisesti yhteen ja tuovat mukanaan oman energiansa ja voimansa. Ne eivät kuitenkaan sulaudu toisiinsa, vaan sommitelma säilyy topografialtaan epätasaisena.
McCafferyn käyttämillä voimien ja tulemisen käsitteillä on selvä yhteys Deleuzeen ja Guattariin, ja hänen protosemantiikkansa tangeeraa laajemminkin uusmaterialistisen teorian kanssa. Keskeistä on, että McCafferyn mukaan materian dynaamisuus ja tulemisen prosessit luonnehtivat yhtä lailla kielen toimintaa. Väitän, että tällaisen materialistisen kielikäsityksen lunastaa ennen kaikkea hänen kirjoituskonerunoutensa. Deleuzen ja Guattarin sommitelman käsitteellä voi kuvata kirjoitusteknologioita, kuten käyttäjän ja kirjoituskoneen suhdetta, mutta McCafferyn tapauksessa myös konkreettisen runouden visuaalisia piirteitä ja inskription pintaa. Palaan tähän tekstianalyysissa artikkelin jälkipuoliskolla. Sitä ennen tarkastelen, miten kirjoituskone teknologiana muotoaa fyysistä kirjoitustilannetta.
”Tuo kannettava painokone”: kirjoitus koneesta
Kirjoituskoneen laajamittainen läpilyönti 1800-luvun lopulla muokkasi perustavalla tavalla paitsi kirjoittamisen teknologisia käytäntöjä, myös kirjoittajan subjektiviteettia. Kuten Friedrich Kittler toteaa, mediat määrittelevät tilanteemme; hänen radikaalimaterialistisen mediateoriansa voi tiivistää aforismiin, jonka Friedrich Nietzsche kirjoitti vuonna 1882 otettuaan ensimmäisenä filosofina käyttöön kirjoituskoneen, Malling Hansenin kirjoituspallon: ”Kirjoitusvälineemme työstävät myös ajatteluamme”[2] (Kittler 1999, xxxix, 200).
Kone tuo korostuneesti esiin kirjoittamiseen liittyvän mediaalisen, välittävän aspektin, koska se sijoittuu tekijän ja paperiarkin väliin ja käytössä on uudenlainen rajapinta eli näppäimistö. Samalla siihen kytkeytyy monenlaisia sosiaalisia käytäntöjä ja säätelyä. Kaupallisena innovaationa kirjoituskone liittyi ennen muuta kommunikaation standardointiin ja tehostamiseen byrokratiassa ja liiketoiminnassa. Se organisoi ja rytmitti informaationkäsittelyä uudella tavalla. Kittlerin (1990, 193) mukaan vielä nopeuttakin olennaisempaa oli se, että kirjoituskone erottelee merkit toisistaan ja sijoittaa ne tilaan. Marshall McLuhan (1984, 292) mainitsee, että kirjoituskoneen tulo painosti käyttäjiä tarkkailemaan kielioppia ja oikeinkirjoitusta ja lisäsi huomattavasti sanakirjojen myyntiä.
Varhaisvaiheessaan 1800-luvun lopulla kirjoituskone erottaa aistikanavia toisistaan. Ensimmäiset koneet suunniteltiin sokeiden käyttöön: ne sallivat sokean kirjoittaa helposti luettavaa tekstiä näkevälle lukijalle. Toisaalta teksti oli kirjoitushetkellä piilossa myös näkevältä kirjoittajalta, koska varhaisissa malleissa keskeneräinen rivi jäi katveeseen näppäimistön taakse tai alle. Visuaalisen runouden kannalta on huvittavaa, että 1890-luvun uusissa malleissa erityiseksi myyntivaltiksi nousi se, että kirjoittaja pystyi näkemään rivin, jota oli parhaillaan kirjoittamassa. Mainoksissa toistui sloganeja kuten ”visible writing” ja ”Work in Sight” (Gitelman 1999, 206–207).
Vuosisadan taitteessa konekirjoitusta markkinoitiin ja siitä puhuttiin yleisesti ”automaattikirjoituksena” (automatic writing). Sama termi yhdistettiin meedioitten toimintaan spiritistisissä istunnoissa. Lisa Gitelmanin mukaan ajatus automaattikirjoituksesta ja sen yhteydestä kirjoituskoneeseen alkoi langettaa epäilyksiä kirjoittavan subjektin auktoriteettiin ja itseilmaisuun. (Gitelman 1999, 184–218.) Voi siis sanoa, että kirjoituskoneeseen on tuoreeltaan liittynyt ajatus jonkinlaisesta ulkopuolisen informaation kanavoinnista, jossa itseilmaisu höltyy.
Darren Wershler-Henry rinnastaa konekirjoittamisen yhteiskunnallisen kurin käytäntöihin sellaisina kuin Michel Foucault niitä analysoi. Kuri operoi jaottelemalla ihmiset tilaan; yhtä lailla koulussa, tehtaassa ja armeijassa jokaiselle määrätään ruudukosta paikka, joka samalla kertaa pitää hänet kuuliaisena ja maksimoi hänen työtehonsa: ”Jokaiselle yksilölle määrätään oma ruutu ja jokaisessa ruudussa on joku yksilö. On vältettävä jakamista ryhmiin, on hajotettava kollektiivit ja eriteltävä epämääräiset, massiiviset tai hämärät monen yksilön ryhmät.” (Foucault 2014, 195.) Foucault’n luonnehdinta sopii kuvaamaan niitä tapoja, joilla kirjoittajan ruumis mukautetaan koneen toimintaan, kun esimerkiksi konekirjoitusoppaat määrittelevät, millaisessa asennossa kirjoittajan tulee istua, missä kulmassa pitää käsiään ja niin edelleen. Samalla kurinalainen ruudukko määrittää, kuin edellisen synekdokeena, myös konekirjoitussivun graafista tilaa. (Wershler-Henry 2005, 140–142, 152.)
Joissain suhteissa kirjoituskoneen uutuutta ja tasapäistävää vaikutusta on liioiteltu. Martin Heidegger tunnetusti paheksui konekirjoittamista sillä perusteella, että se on jälleen yksi oire olemisen unohtamisesta. Ihmisen tunnusmerkit ovat käsi ja sana, ja käsin kirjoittaessa ne lankeavat yksiin. Kirjoituskone erottaa ne väkivaltaisesti toisistaan, kun mekaniikka tunkeutuu sanan alueelle ja sitä myöten olemisen ytimeen. (Teoksessa Kittler 1999, 198–200.) Jacques Derrida kuitenkin huomauttaa aiheellisesti, että käsin kirjoittaminen on jo instrumentaalista ja teknologista ja, kääntäen, koneella kirjoittaminen on osaltaan manuaalista ja siinäkin käytetään käsiä (Derrida 2005, 20).
Ei liene mielekästä tehdä mitään olemuksellista eroa käsin kirjoitetun ja konekirjoitetun tekstin välille. Aivan yhtä lailla kuin käsin kirjoitettu teksti, myös kirjoituskoneen jälki on indeksinen merkki. Charles S. Peircen tunnetun jaottelun mukaan on olemassa kolmenlaisia merkkejä, ikoneja, indeksejä ja symboleja. Ikoni muistuttaa kohdettaan ulkoisesti, symboli puolestaan viittaa siihen konvention nojalla. Indeksillä sen sijaan on kohteeseen välitön ja fyysinen yhteys (CP 3.361).[3] Kirjoituskoneeseen yleensä liitettyä standardoinnin ajatusta vastaan käy se, että indeksisyydessään jokainen kone tuottaa itse asiassa singulaarista jälkeä. On esimerkiksi mahdollista tunnistaa, millä koneella tietty dokumentti on kirjoitettu.[4]
Kirjailijoiden työvälineenä kirjoituskone oli yleinen valtaosan 1900-lukua, mutta sen osuus rajoittui melkein poikkeuksetta käsikirjoitusvaiheeseen. Painetussa kirjallisuudessa normi on ladottu teksti. Ladonta lisää kirjallisuuden tuotantoon yhden mediaalisen vaiheen, mutta se tuottaa prosessiin myös selvän katkoksen, koska se korvaa käsikirjoitusversion merkki merkiltä ja tulee sen tilalle. Kun konekirjoitettu teksti sen sijaan toistetaan faksimilena, kuten McCafferyn runoissa, se on tavallaan enemmän ja vähemmän mediaalinen kuin ladottu. Tekoprosessi näyttäytyy kohosteisena, koska graafinen asu poikkeaa odotuksenmukaisesta, mutta teknologisia vaiheita on vähemmän. Konekirjoite on, paradoksaalisesti, välittömämmin mediaalinen. McCaffery luonnehtiikin kirjoituskonetta kannettavaksi painokoneeksi: ”that portable printing press the typewriter” (McCaffery 2015, 7).
Sikäli kuin kirjoituskoneeseen konventionaalisesti liittyy odotuksia ja mielleyhtymiä yhdenmukaisesta ja helppolukuisesta ilmaisusta, McCafferyn runoudessa sitä käytetään monella tapaa odotustenvastaisesti ja väärin. Tämä koskee sekä kirjoitusprosessia että itse graafista jälkeä.
Likainen konkretismi
McCafferyn kirjoituskonerunot ovat pääosin 1960-luvun jälkipuoliskolta ja 70-luvulta. Niillä on yhteyksiä kansainväliseen konkreettisen runouden suuntaukseen, mutta ne eivät täysin palaudu siihen. Konkreettinen runous henkilöityy ennen kaikkea sveitsiläiseen Eugen Gomringeriin ja brasilialaiseen Noigandres-ryhmään, jonka muodostivat veljekset Augusto ja Haroldo de Campos sekä Décio Pignatari. Sen keskeiset tekstit ja koulukuntaa määrittelevät manifestit ilmestyivät 1950-luvulla. Prototyyppisinä runoina voi pitää Gomringerin ”konstellaatioita”: ne ovat asemoinniltaan verrattain pienikokoisia, sanastoltaan rajattuja mutta toisteisia ja graafiselta asultaan huoliteltuja – pääsääntöisesti ladottuja, usein sans serif -fontilla.
McCafferyn tuotanto sen sijaan liittyy niin sanottuun likaiseen konkretismiin (dirty concrete), joka 60-luvulla reagoi aiempaa, siistiä ja puhdaslinjaista konkretismia vastaan. Kuten Lori Emerson tiivistää, helposti omaksuttavan ja lineaarisen tekstin sijaan se pyrki ennemmin kohti lukukelvotonta tekstiä ja hyödynsi tässä erityisesti niitä mahdollisuuksia, joita kirjoituskone tarjoaa (Emerson 2014, 100). Tähän suuntaukseen voidaan liittää ainakin Dom Sylvester Houédard sekä bpNichol, Toronto Research Groupin toinen jäsen. Likaiseen konkretismiin liittyy läheisesti Houédardin lanseeraama termi typestract, sanoista abstract typewriter art, joka painottaa eroa aikaisempaan, yleensä ikoniseen tai esittävään konkreettiseen runouteen. McCafferykin luonnehtii tällä termillä tiettyä kokonaisuutta 60- ja 70-luvun visuaalisista runoistaan.
Kirjoituskoneen rooli ja tekstin ja kirjan mediaalisuus nousivat samaan aikaan esiin myös kokeellisessa proosassa. Raymond Federmanin romaaneissa Double or Nothing (1971) ja Take It Or Leave It (1976) jokaisella sivulla on oma typografinen asunsa. Pienoisromaanissa The Voice in the Closet (1979) jokainen rivi sisältää yhtä monta merkkiä ilman, että välimerkkejä on lisätty tai sanoja tavutettu rivin lopussa. Näin kappaleista muodostuu täydellisiä nelikulmioita. (Federman 1979.) Teos siis tekee välttämättömyydestä hyveen, kun kirjoituskoneen tasalevyinen fontti on tietoisesti otettu käyttöön ja ladattu merkityksellä, siitäkin huolimatta, että julkaistussa kirjassa teksti on ladottu eikä toistettu faksimilena. Federmanin ja hänen kirjoituskoneensa (IBM Selectric) suhde on siinä määrin vastavuoroinen, että Brian McHalen mukaan tästä hybridistä voisi käyttää nimeä Federmachine (McHale 2000, 10).[5]
Tämä kuvaa hyvin myös McCafferyn suhdetta kirjoituskoneeseen. Muodostuu Deleuzen ja Guattarin merkityksessä koneellinen sommitelma, jossa käyvät yksiin tekijä, kirjoituskone liikkuvine osineen, alusta eli paperi, kaikki lisäosat, joilla konetta viritellään, kuten leimasimet ja sapluunat, ja toisaalta myös kaikki konekirjoittamiseen koodatut protokollat, sosiaaliset käytännöt ja diskursiiviset odotukset. Kirjoitusprosessin lisäksi sommitelman käsite kuvaa osuvasti myös typestractien visuaalisuutta (ks. kuva 1).
McCaffery tunnettaneen parhaiten Carnival-teoskokonaisuudesta, joka käsittää kaksi kirjaa. Käsittelen sitä lyhyesti mutta haluan nostaa esiin erityisesti muita, yksittäisiä kirjoituskonerunoja, koska Carnivalia on jo tutkittu jonkin verran.[6]Carnival: The First Panel ilmestyi vuonna 1973. Siinä on 18 sivua, ja sitä voi tarkastella sarjana typestracteja, joissa varioidaan tiettyjä samankaltaisia muotoja ja kuvioita. Paratekstissä irrallisella lappusella myös ohjeistetaan lukijaa irrottamaan sivut katkoviivaa pitkin ja koostamaan niistä yksi suuri yhtenäinen kuvio. McCafferyn mukaan kyseessä on ”kartografinen projekti”, ja hän kertoo, että kuviot on toteutettu pitämällä etukäteen muotoon leikattua kaavainta tai peitettä (mask) varsinaisen konekirjoitussivun päällä. Uusmaterialistisessa kontekstissa on huomionarvoista, että tekijä vähättelee omia intentioitaan ja korostaa kirjoituskoneen osuutta tasavertaisena toimijana: ”The panels grew directly through the agency of the typewriter”. (bpNichol 1987, 72.)[7] Jatko-osa, Carnival: The Second Panel (1977), käyttää lisäksi muita keinoja ja välineitä: kumileimasimia, käsinkirjoitusta, hiilipaperia sekä kopiokoneella lukukelvottomaksi käsiteltyä tekstiä (bpNichol 1987, 73). Leimasin suhteellistaa osuvasti käden ja koneen erottelua: mekaaninen periaate on aivan sama kuin koneen kirjasinvarressa, mutta asettelu tehdään käsivaralla (ks. kuva 2).
Nykylukijasta McCafferyn runous vaikuttaa kenties poikkeuksellisen idiosynkraattiselta, koska kirjoituskoneita ja niitten jälkeä ei juuri näe jokapäiväisessä käytössä; tämä tuottaa siihen yhden välittävän ja vieraannuttavan elementin lisää. Mutta Carnival ja muut typestractit poikkeavat radikaalisti myös oman aikansa tyypillisistä ja jokapäiväisistä konekirjoitteista sekä tekotavoiltaan että ulkonäöltään.
Jo yksittäisillä sivuilla kokonaishahmo on melko ylenpalttinen; siellä täällä on kyllä ohuita valkeita juovia, jokia, mutta marginaalit puuttuvat ja teksti ulottuu joka suunnassa reunaan asti, mikä tuottaa vaikutelman kuin jotakin valuisi kaikkialla yli. Kuten Deleuzen ja Guattarin kuvailemaa kirjaa, sitä voi hahmottaa kartografiana: siinä on territorioita, rajattuja ja määriteltyjä alueita, mutta myös paon viivoja, jotka eivät rajoitu näihin alueisiin, samoin vaihtelevia intensiteettejä, tiheitä ja väljiä, kerrostuneita ja murtuneita alueita. Voi kuitenkin väittää, että yksittäiset typestractit ovat fragmentteina, kappaleina ainetta, vielä radikaalimpia, koska niiltä puuttuu kirjan tarjoama välitön konteksti ja suoja.
Valtaosa McCafferyn visuaalisista runoista on julkaistu pieninä painoksina chapbookeissa ja esimerkinomaisesti antologioissa.[8] Ensimmäinen perusteellinen kokoelma, Revanches, ilmestyi vasta vuonna 2015. Keskityn seuraavassa siihen, koska se sisältää ennen julkaisemattomia tekstejä ja siinä faksimilet ovat teknisesti laadukkaimmat.
Kokoelman sarjassa ”Typestracts (1969–74)” on kymmenen tekstiä. Näistä ensimmäinen muodostuu kirjan sivun muotoisesta nelikulmiosta; mittasuhteiltaan se seuraa A4-arkin muotoa ja selvästi rajattuna täyttää samanmuotoisen tekstialueen kuin tavallinen proosaksi asemoitu teksti (ks. kuva 3). Tausta on muodostettu kauttaaltaan prosenttimerkeistä, %. Rivit ovat suorat, mutta normaaleja rivivälejä ei ole, vaan rivit sijoittuvat toistensa lomaan tai osin päällekkäin. Muodostuu harsomainen kuvio, jossa on siellä täällä aukkoja ja paikoin tiheämpiä kohtia. Keskellä on allekkain neljä nelikulmiota, jotka muodostuvat (järjestyksessä ylhäältä alas) o-, u- ja m-kirjaimista ja kysymysmerkeistä. Ne eivät ole aivan suorassa linjassa pohjakuvion kanssa, mikä tuottaa hieman tärähtäneen vaikutelman. Erityisesti kysymysmerkkikuviosta voi erottaa monta kerrosta, koska ne eivät osu täysin tarkasti kohdakkain.
Mukaan valitut grafeemit ovat merkitseviä sikäli, että ne olennoivat nimenomaan kirjoitusta tai kirjoituksellisuutta. Merkeistä ei muodostu kuviota, joka esittäisi jotain ikonisessa mielessä. Kirjaimista ei myöskään muodostu mitään tunnistettavaa sanaa. Erityisen selvästi näin on prosenttimerkkien kohdalla; kuten Derrida (1976, 39) huomauttaa, matemaattiset symbolit, jotka eivät esitä foneemeja, todistavat osaltaan, että kirjoitusta ei voi pelkistää puheen representaatioon. Varsinaisten kirjainten, o:n, u:n ja m:n, kohdalla on päälletysten pieniä ja isoja kirjaimia. Ne viittaavat siis tiettyihin ortografisiin funktioihin (kuinka merkitään erisnimi, kuinka uuden virkkeen alku), jotka puuttuvat verbaalista puheesta. Kysymysmerkki puolestaan on länsimaisessa kirjoitusjärjestelmässä se, joka yksittäisenä merkkinä kantaa kaikista eniten semanttista ja pragmaattista informaatiota. Saman merkin toistuminen tuo ilmi, että jopa yksittäiset lyönnit ovat singulaarisia: yhdellä rivillä voi huomata paljonkin materiaalista variaatiota, kun lyönnin voimakkuuden vaihtelu tuottaa paikoin vaaleampia, paikoin tummempia merkkejä.
Sekä Carnivalin että muitten typestractien voi lukea kommentoivan tyypillisiä konekirjoitetun tekstin konventioita. Siinä vaiheessa, kun kirjoituskone otetaan 1800-luvun lopulla laajalti käyttöön byrokratiassa ja liiketoiminnassa, sen tehtävä on ennen kaikkea tehostaa informaationkulkua eli tuottaa standardoitua ja helppolukuista tekstiä. Tärkeä kriteeri on, että kirjaimet voi erottaa toisistaan mahdollisimman vaivattomasti. Tätä korostaa entisestään koneen tasalevyinen fontti, jossa jokainen merkki, olkoon i tai M, vie rivillä saman verran tilaa. Standardi on sellainen hygieeninen pinta, jossa kukin merkki pysyy omassa tilassaan. Tavallisesti pidetään virheenä, jos ne osuvat päällekkäin tai ylipäätään koskettavat toinen toistaan. McCafferyn runoja puolestaan asuttavat pikemminkin Foucault’n kuvaamat ”epämääräiset, massiiviset tai hämärät ryhmät”. Kirjainmerkit sijoittuvat päällekkäin ja toistensa lomaan ja muodostavat siten eriasteisia sommitelmia.
Sapluuna rajaa välttämättä osan tekstistä ulkopuolelle. Toisin sanoen fyysisessä kirjoitusprosessissa syntyy ylijäämää, joka ei näy valmiissa teoksessa – suplementti tai virtuaalinen osa. Itse poistosta jää kuitenkin selvä merkki, kun kuvion ulkorajalla kirjaimet useimmiten leikkautuvat halki ja niistä näkyy vain puolikas (ks. kuva 4). Kuviot ovat siis fragmentteja hyvin konkreettisessa ja kirjaimellisessa mielessä. Niiden reuna on huokoinen ja avoinna kohti ulkopuolta.
Proosan kierre: kuinka kirjoituskoneella piirretään
Kuten edellä todettiin, uusmaterialismi korostaa materian aktiivista ja arvaamatonta liikettä ja McCafferyn mukaan samat epävakaat voimat operoivat kielessä ja kirjoituksessa. McCaffery liittää protosemantiikkaansa käsitteitä varsin erilaisista teoriaperinteistä. Kaksi tärkeintä ovat Lucretiuksen clinamen ja Ilya Prigoginen ja Isabelle Stengersin dissipatiiviset järjestelmät. Lucretiuksen luonnonfilosofiassa clinamen tarkoittaa pienen pientä siirtymää atomin liikkeessä, jolloin se poikkeaa reitiltään ja törmää muihin atomeihin.[9] Hän myös ehdottaa ilmiölle analogiaa kielessä, vielä tarkemmin kirjoituksessa, ja rinnastaa atomit ja aakkosten kirjaimet: ”Aakkoset paljon voi, eri järjestyksihin pannut, / yhdistelmiä voi olioiden alkuset tehdä / runsaammin, oliot erilaiset saa siten muodon” (Lucretius 1965, I.827–829). Erityisen hyvin kirjain-atomien toimintaa dramatisoi anagrammi. Kyse ei kuitenkaan ole pelkästä sanaleikistä, jossa yksittäisen sanan kirjaimet järjestetään uudelleen niin, että syntyy jokin toinen sana, vaan olennaisesta periaatteesta, joka määrittää kaikkea aakkoskirjoitusta. Anagrammi olennoi hyvin perustavalla tavalla kirjoitusta aineena – kaikki merkitys perustuu tietyn materiaalisen varannon permutaatioihin.
Luonnostellessaan uusmaterialistisen taiteentutkimuksen lähtökohtia Barbara Bolt (McCafferystä tietämättä) nostaa esiin juuri clinamenin käsitteen. Hän vetoaa Epikurokseen, jonka mukaan oleva muodostuu aina materiaalisissa prosesseissa. Atomeihin vaikuttaa ennustamaton ja epävakaa kierre, clinamen, joka saattaa asiat liikkeeseen ja tuottaa dynaamisia prosesseja ja muodonmuutoksia. Boltin mukaan clinamenissa on jo läsnä ajatus aktiivisesta ja toimivasta aineesta ja tällaisena se juontuu nykyiseen uusmaterialismiin saakka. (Bolt 2013, 1–2.)
Clinamenin ohella toinen tärkeä viitepiste McCafferyn poetiikalle on epävakaa termodynamiikka (non-equilibrium thermodynamics) ja erityisesti niin sanotut dissipatiiviset järjestelmät, joita Prigogine ja Stengers käsittelevät teoksessaan Order Out of Chaos. Dissipatiivinen järjestelmä on avoin, dynaaminen ja käy vaihtoa ympäristönsä kanssa (Prigogine & Stengers 1985). McCaffery omaksuu heiltä erityisesti ajatuksen, että jopa vakaaseen järjestelmään sisältyy monia epävakaita alijärjestelmiä, jotka painostavat sitä kohti tuhlausta ja epätasapainoa. Tämä ajatus on sovellettavissa myös kieleen. (McCaffery 2001, xvii–xviii.) Diana Coole ja Samantha Frost korostavat niin ikään Newtonin jälkeisen fysiikan roolia uusmaterialistisen teorian taustalla ja nostavat esiin erityisesti 1970-luvun kaaos- ja kompleksisuusteoriat. Fyysinen maailma muodostuu ei-lineaarisissa, epävakaissa ja monimutkaisin tavoin toisiinsa kietoutuneissa prosesseissa. Näissä emergenteissä järjestelmissä aine toimii dynaamisesti, itseään organisoiden ja muotoaan muuttaen. (Coole & Frost 2010, 7–15.)
Tältä kannalta erityisen kiinnostava on McCafferyn 13-osainen sarja ”Origins of Prose” vuodelta 1970. Sekin on toteutettu kirjoituskoneella mutta poikkeaa esimerkiksi Carnivalista monin tavoin. Se on asemoinniltaan huomattavasti väljempi, ja toisin kuin Carnivalin laajoissa ja tiheissä tekstipinnoissa, huomio kiinnittyy yksittäisiin grafeemeihin. Grafeemien asemointia ei jäsennä minkäänlainen typografinen ruudukko, vaan niistä muodostuu pikemminkin vapaa ja säännötön sommitelma. Yksittäiset grafeemit ovat tunnistettavissa – mukana on kirjaimia ja välimerkkejä – mutta muste on levinnyt sillä tavoin, että niiden perässä on eräänlainen häntä, kuin vanavesi tai haamukuva (ks. kuvat 5 & 6).
McCaffery paljastaa, että tällainen liukuva jälki on toteutettu painamalla kirjoituskoneen näppäintä pohjassa ja liikuttamalla samaan aikaan paperia (2015, 124–125). Keino on siis spesifi juuri kirjoituskoneelle, mutta konetta käytetään hyvin epätyypillisesti. McCaffery itse vertaa ohimennen jälkiä komeetan pyrstöön (2015, 124–125). Niissä ei kuitenkaan ole sellaista kiintopistettä, joka määrittäisi, millaisesta mittakaavasta on kyse, joten niitä voi ajatella myös fraktaalisina muotoina, jotka kertautuvat samanlaisina skaalasta toiseen. Yhtä hyvin kuin planeetan kokoisina kappaleina, niitä voi pitää esimerkiksi atomin tai kvarkin kokoisina partikkeleina.
Sarjan voi siis lukea dramatisoivan clinamenin dynamiikkaa, yllättävää kierrettä tai siirtymää atomin radalla. Koska ”Origins” kuvaa juuri kirjainten liikeratoja, se itse asiassa visualisoi Lucretiuksen rinnastuksen, jonka mukaan atomeissa ja aakkosissa vaikuttaa samanlaisia voimia. Siinä miten liikettä ja muutosta esitetään yksittäisen kuvan puitteissa, sitä voi verrata myös sarjakuvan vauhtiviivoihin tai Marcel Duchampin maalaukseen Alaston laskeutuu portaita (1912). Sulkeita ja pilkkuja, joita sarjassa käytetään erityisen runsaasti, voi hahmottaa jo itsessään kierteinä.
Normaalisti kirjoituskone tuottaa merkin kokonaisuudessaan kerralla, yhdellä iskulla, ei sillä tavoin vaiheittain kuin esimerkiksi käsin kirjoittaessa (t:n viivat, i:n pisteet ja vastaavat). ”Origins”-sarjassa jopa yhden merkin sisään muodostuu värin ja intensiteetin vaihtelua. Se tuottaa vaikutelman, että merkin materiaalisuus on muovailtavaa ja virtaavaa.
Sarjan otsikko on monimielinen – tavallisesti proosa viittaa joko tekstin asemointiin (tasatut marginaalit) tai tyyliä koskevaan arvostelmaan (”proosallista”). Sitä voi kuitenkin ajatella myös suhteessa kertovaan tekstiin, erityisesti siinä klassisen narratologian mielessä, että kerronta on nimenomaan tapahtumien esittämistä. Siihen on kirjautunut dynaamisen tekoprosessin fyysinen jälki, ja se osoittaa, että kirjoituskoneesta on muuhunkin kuin uusintamaan valmiita merkkejä.
Yhdessä merkkien vektoreista muodostuu voimien, intensiteettien, tulemisten ja paon viivojen kenttä. Siinä operoidaan yksittäisillä merkeillä, jotka edeltävät sana- ja lausetasoa; ne ovat siis McCafferyn termein protosemanttisia. Mutta yksittäisten merkkienkin hahmo häilyy siinä määrin, että ne ovat pikemminkin keskellä tulemisen prosessia kuin jotakin tarkoin määrittynyttä. Deleuzen mukaan tuleminen (devenir) ei tarkoita muuttumista pysyvästi joksikin muuksi vaan välissä olemista. Tulemisessa etsitään läheisyyden vyöhykkeitä. (Deleuze 2007, 17–18.) ”Origins”-sarjassa merkkien hahmo on liikkeessä ja niiden radat leikkaavat toisiaan mutta ne eivät silti sulaudu toisiinsa. Samalla kirjoituskone joutuu mukaan tulemisen prosessiin; siitä tulee jotain muuta kuin pelkkä kirjoituskone, koska sillä piirretään. Merkkejä manipuloidaan kirjoituskoneella siten, että ne eivät vielä päädy semanttisen merkityksen piiriin vaan näyttäytyvät kaikessa aineellisuudessaan. Kirjoituskonesommitelmassa kielestä tulee deleuzeläisessä mielessä materiaalista.
Vaikka typestracteissa korostuvat kirjoituksen materiaaliset ominaisuudet, niissä kaikissa ei silti täysin hylätä semanttista mieltä. Monin paikoin voi erottaa aivan lukukelpoisia katkelmia ja tunnistettavia sanoja. Niiden konteksti vain on avoin tai alimääräinen. Valtaosin katkelmat ovat niin lyhyitä, esimerkiksi muutaman sanan lausekkeita, ettei ole mahdollista liittää niitä mihinkään tekstilajiin tai arvioida niiden rekisteriä. Näissäkin korostuu aakkosto materiaalisena varantona, kuten Carnival: The First Panelin katkelmassa ”eye level eve”, jossa kaikki sanat ovat palindromeja eli muodostavat saman merkkiketjun alusta loppuun ja lopusta alkuun. Palindromi on läheistä sukua anagrammille; molemmissa tulee korostuneesti esiin, miten aakkoskirjoitus perustuu tietyn rajatun joukon permutointiin. Carnival purkaa kauttaaltaan tavanomaista lukemisjärjestystä (vasemmalta oikealla ja ylhäältä alas), mutta se muistuttaa myös, että tavallisiinkin aakkoskirjoituksen sanoihin sisältyy vaihtoehtoisia suuntia.
Yksi Revanchesin typestracteista muodostuu pelkästään fraasista ”solidlayerandtissue” toistettuna koko arkin mitalta ilman välilyöntejä mutta siten, että osa tekstisegmenteistä on päällekkäin ja hieman eri kulmissa toisiinsa nähden (ks. kuva 7). Näin se aktivoi diskurssin ja alustan suhteen: graafinen pinta muodostaa itseensä viittaavasti yhtenäisen kerroksen (”solid layer”) mutta se lepää orgaanisen kudoksen eli paperin varassa (”tissue”).
Lopuksi
Tässä artikkelissa olen käsitellyt Steve McCafferyn kirjoituskonerunoutta ja kielen materiaalisuutta sekä niiden yhteyttä nykyiseen uusmaterialismiin. Uusmaterialistinen käsitys aineesta aktiivisena ja dynaamisena toimijana on monin tavoin läsnä jo language-runoudessa ja McCafferyn teoreettisissa teksteissä, mutta näiden omintakeisena piirteenä on se, että myös kieli käsitetään toimivana aineena. McCafferylle kieli on materiaalinen kenttä, jolla erilaiset voimat leikkaavat. Näin ollen myös uusmaterialismiin, jonka piirissä on argumentoitu kielen dominanssia vastaan, avautuu uusi näkökulma, kun kieli itse hahmottuu materiaalisena.
Deleuzen ja Guattarin koneellinen sommitelma luonnehtii McCafferyn kirjoituskonerunoutta ainakin kahdella tapaa: sekä kirjoitustilannetta, kirjoittajan ja koneen yhteistoimintaa, että itse kirjoituksen visuaalista jälkeä. Kirjoitusväline on jo kone kaikessa materiaalisuudessaan; koneellisessa sommitelmassa, joka on aina väliaikainen ja tilannekohtainen, kirjoittaja muuntelee sitä erilaisin lisäyksin. Graafista jälkeä voi manipuloida monin tavoin, mutta siihen kuuluu myös elementtejä, jotka ovat spesifejä koneelle itselleen. Tällöin korostuu kirjoituskoneen tuottava osuus, mutta ennen kaikkea siksi, että sommitelmaan lisäillään kaikkea ylimääräistä, kuten sapluunoita, tai konetta käytetään ”väärin”. Myös teksti poikkeaa konekirjoituksen oletusasetuksista, kuten typografisesta ruudukosta ja selkeästä sanojen ja merkkien erottelusta. Sommitelmaan kytkeytyy siis yhtä lailla tekstin graafinen materiaalisuus. Se muodostaa visuaalisen kentän, jolla erilaiset voimat ja intensiteetit toimivat. Erityisesti niissä teksteissä, joissa kyllä operoidaan aakkoskirjoituksella mutta tunnistettavat sanat puuttuvat, kirjoitus näyttäytyy ennen kaikkea kappaleina graafista ainetta. Niillä on massa ja liike-energiaa, ja ne vaikuttavat toisiinsa samassa voimakentässä.
Vaikka siistiä ja helppolukuista pintaa häiritään kirjoituskonerunoudessa eri tavoin materiaalisuuden hyväksi, mukana on myös perinteisessä mielessä aivan lukukelpoisia osia. Se ei siis kiellä diskursiivista ulottuvuutta täysin vaan pikemminkin liukuu foneettisesta kirjoituksesta abstraktiin kuvallisuuteen ja takaisin. Muodostuu jatkumo syntaktisesti jäsentyneistä tekstikatkelmista sellaisiin, joissa kertautuu vain jokin yksittäinen grafeemi, ja edelleen täysin läpitunkemattomiin alueisiin, joita muste tahraa. McCafferyn kirjoituskonerunoudessa materiaalinen ja kielellinen ovat kytkeytyneet toisiinsa ja aktivoivat toinen toistaan. Luettavuuden manipulointi kuitenkin erottaa sen olennaisesti aiemmasta, kanonisoidusta 50-luvun konkretismista – sitä ei ole syyttä luonnehdittu ”likaiseksi”. Tekstistä ei voi eristää mitään yksiselitteisiä väittämiä, mutta se on transgressiivista aivan kirjaimellisessa mielessä, koska yksittäisten merkkien rajat eivät enää pidä.
Lähteet
Barad, Karen. 2007. Meeting the Universe Halfway: Quantum Physics and the Entanglement of Matter and Meaning. Durham, NC: Duke University Press.
Bennett, Jane. 2010. Vibrant Matter: A Political Ecology of Things. Durham, NC: Duke University Press.
Bernstein, Charles. 2012. “The Expanded Field of L=A=N=G=U=A=G=E.” Teoksessa The Routledge Companion to Experimental Literature, edited by Joe Bray, Alison Gibbons and Brian McHale, 281–297. London: Routledge.
Bolt, Barbara. 2013. “Toward a ‘New Materialism’ Through the Arts.” Teoksessa Carnal Knowledge: Towards a ‘New Materialism’ Through the Arts, edited by Estelle Barrett and Barbara Bolt, 1–13. London: I. B. Tauris.
bpNichol. 1987. “The Annotated, Anecdoted, Beginnings of a Critical Checklist of the Published Works of Steve McCaffery.” Open Letter, sixth series, no. 9 (Fall 1987): 67–92.
Coole, Diana, and Samantha Frost. 2010. “Introducing the New Materialisms.” Teoksessa New Materialisms: Ontology, Agency, and Politics, edited by Diana Coole and Samantha Frost, 1–43. Durham, NC: Duke University Press.
Deleuze, Gilles. 2007. Kriittisiä ja kliinisiä esseitä. Suomentaneet Anna Helle, Merja Hintsa ja Pia Sivenius. Helsinki: Tutkijaliitto.
Deleuze, Gilles, ja Félix Guattari. 1992. ”Rihmasto. Johdanto.” Teoksessa Autiomaa: Kirjoituksia vuosilta 1967–1986, toimittaneet Jussi Kotkavirta, Keijo Rahkonen ja Jussi Vähämäki, 22–52. Helsinki: Gaudeamus.
Derrida, Jacques. 1976. Of Grammatology. Translated by Gayatri Chakravorty Spivak. Baltimore, MD: The Johns Hopkins University Press.
Derrida, Jacques. 2005. Paper Machine. Translated by Rachel Bowlby. Stanford, CA: Stanford University Press.
Emerson, Lori. 2014. Reading Writing Interfaces: From the Digital to the Bookbound. Minneapolis, MN: University of Minnesota Press.
Federman, Raymond. 1979. The Voice in the Closet. Madison, WI: Coda Press.
Gitelman, Lisa. 1999. Scripts, Grooves, and Writing Machines: Representing Technology in the Edison Era. Stanford, CA: Stanford University Press.
Golding, Alan. 2006. “Language Writing, Digital Poetics, and Transitional Materialities.” Teoksessa New Media Poetics: Contexts, Technotexts, and Theories, edited by Adalaide Morris and Thomas Swiss, 249–283. Cambridge, MA: The MIT Press.
Jaeger, Peter. 1999. ABC of Reading TRG. Vancouver: Talonbooks.
Kittler, Friedrich. 1990. Discourse Networks 1800/1900. Translated by Michael Metteer and Chris Cullens. Stanford, CA: Stanford University Press.
Kittler, Friedrich. 1999. Gramophone Film Typewriter. Translated by Geoffrey Winthrop-Young and Michael Wutz. Stanford, CA: Stanford University Press.
Lehto, Leevi. 2008. ”Language-runous.” Teoksessa Alussa oli kääntäminen: 2000-luvun poetiikkaa, 36–68. Turku: Savukeidas.
Lucretius. 1965. Maailmankaikkeudesta. Suomentanut Paavo Numminen. Helsinki: WSOY.
McCaffery, Steve. 1973. Carnival: The First Panel, 1967–70. Toronto: Coach House Press.
McCaffery, Steve. 1977. Carnival: The Second Panel, 1970–75. Toronto: Coach House Press.
McCaffery, Steve. 1980. “The Death of the Subject: The Implications of Counter-Communication in Recent Language-Centered Writing.” L=A=N=G=U=A=G=E Supplement 1 (June 1980): n.p.
McCaffery, Steve. 2001. Prior to Meaning: The Protosemantic and Poetics. Evanston, IL: Northwestern University Press.
McCaffery, Steve. 2015. Revanches: Constellations, Typestracts & Other Visual Texts 1969–2009. West Lima, WI: Xexoxial Editions.
McCaffery, Steve, and bpNichol. 1992. Rational Geomancy: The Kids of the Book-Machine. The Collected Research Reports of the Toronto Research Group 1973–1982. Vancouver: Talonbooks.
McLuhan, Marshall. [1969] 1984. Ihmisen uudet ulottuvuudet. Suomentanut Antero Tiusanen. Helsinki: WSOY.
Nietzsche, Friedrich. 1981. Briefwechsel: Kritische Gesamtausgabe. Abt. 3, Bd. 1. Hrsg. von Giorgio Colli und Mazzino Montinori. Berlin: Walter de Gruyter.
Peirce, Charles Sanders. 1960. Collected Papers of Charles Sanders Peirce. Vol. 3–4. Edited by Charles Hartshorne and Paul Weiss. Cambridge, MA: Belknap Press.
Perelman, Bob. 1996. The Marginalization of Poetry: Language Writing and Literary History. Princeton, NJ: Princeton University Press.
Prigogine, Ilya, and Isabelle Stengers. [1984] 1985. Order Out of Chaos: Man’s New Dialogue with Nature. London: Fontana.
Silliman, Ron. [1987] 2003. The New Sentence. New York: Roof Books.
Silliman, Ron. [1986] 2007. “Language Realism Poetry.” Teoksessa In the American Tree: Language Realism Poetry, edited by Ron Silliman, xvii–xxiii. Orono, ME: The National Poetry Foundation.
Weaver, Andy. 2011. “‘the white experience between the words’: Thoughts on Steve McCaffery’s Carnival, the second panel: 1970–75.” Open Letter, fourteenth series, no. 7 (Fall 2011): 130–146.
Wershler-Henry, Darren. 2005. The Iron Whim: A Fragmented History of Typewriting. Ithaca & London: Cornell University Press.
Viitteet
[1] Pääosin kanadalaisessa Open Letter -lehdessä ilmestyneet raportit on myöhemmin koottu kirjaksi (McCaffery & bpNichol 1992). Johdannoksi TRG:iin ja sen teorioihin katso myös Jaeger 1999.
[2] ”[U]nser Schreibzeug arbeitet mit an unseren Gedanken”, Nietzschen (1981, 172) kirjeestä Heinrich Köselitzille helmikuussa 1882.
[3] Vaikka uusmaterialismin voi katsoa jo siirtyneen semiotiikan tuolle puolen, ei Peircen jaottelu välttämättä ole sen kanssa yhteismitaton. Peircellä kaikki ei ylipäätään pelkisty vain kieleen, ja juuri indeksi tuo mukaan materiaalisuuden, joka on välitöntä ja singulaarista.
[4] Tätä seikkaa käytettiin todisteena oikeudessa jo vuonna 1893 (tapaus Levy v. Rust New Jerseyssä), kahdeksan vuotta ennen kuin sormenjälkiä (Wershler-Henry 2005, 178).
[5] Federmanin vaikutuksen voi nähdä niin sanotun konkreettisen proosan tai laajemmin multimodaalisen fiktion uudessa nousussa 2000-luvulla. Esimerkiksi Mark Z. Danielewskin romaanissa House of Leaves (2000), kaikkien muiden typografisten ja visuaalisten keinojen ohella, yhden henkilökertojan teksti on Courier-fontilla, mikä tuottaa vaikutelman juuri kirjoituskoneen jäljestä.
[6] Lori Emersonin (2014, luku 3) media-arkeologinen analyysi Houédardin, Nicholin ja McCafferyn konkretismista sijoittaa teokset 60-luvun mediaaliseen kontekstiin ja selvittää termin dirty concrete alkuperää. Hän käsittelee Carnivalia muttei muita McCafferyn typestracteja. Alan Golding (2006) analysoi Carnivalia ja kahden muun language-runoilijan, Charles Bernsteinin ja Robert Grenierin, visuaalisia runoja välittävinä teksteinä, joilla on yhteyksiä aiempaan konkreettiseen runouteen mutta jotka ennakoivat jo digitaalisen runouden toimintatapoja. Andy Weaver (2011) lähilukee Carnival: The Second Panelia eri näkökulmista, muun muassa suhteessa Bahtinin karnevalismiin.
[7] Nicholin laatima bibliografia McCafferyn tuotannosta vuoteen 1987 saakka sisältää alaviitteissä haastattelun, jossa käsitellään teosten materiaaleja ja tekoprosesseja.
[8] McCafferyn kirjoituskone- tai muuta visuaalista runoutta antologisoitiin tuoreeltaan kokoelmassa New Direction in Canadian Poetry (1971) ja aivan hiljattain kokoelmissa Typewriter Art: A Modern Anthology (2014) ja The New Concrete: Visual Poetry in the 21st Century (2015).
[9] Paavo Nummisen suomennoksessa clinamen on sijansiirto: ”suoraan kun alaspäin esisiemenet tyhjiön halki / syöksyvät painollaan, niin määräämättömin hetkin / syrjähtää radaltaan nuo määräämättömin paikoin, / hiukan vain, nimen että sä antaa voit sijansiirron” (Lucretius 1965, II.217–220). Englanninkielinen vastine on useimmiten swerve.
This paper presents a critical overview of the genres of text art. It includes but is not limited to ASCII, Western and Chinese ANSI, Shift-JIS, Unicode, and PETSCII art. The paper shows examples and briefly explains its features, history and popular uses. A widely held belief is that these genres are merely a consequence of which technological protocol that was used to produce it. But some of these genres formed in user subcultures over long periods of time, and were gradually loaded with conventions and preferences. By the 1990’s, several subcultures had its own understanding of ASCII and ANSI.
Today, as text art is distributed as images or videos on the web, appearance has become more important on the expense of materiality (character encoding). Browsing the #PETSCII hashtag in social media shows graphics that looks like PETSCII, but does not necessarily use PETSCII encoding, or even PETSCII characters. The paper argues that neither materialism nor pop aesthetics alone can explain text art genres today. Depending on the context, they need to be combined accordingly. Text art genres might not be wrong, but they can certainly be better prepared for the future.Text art, character art, micrography, artyping, ASCII art, visual poetry, text mode art… There has been a variety of terms to describe visual works with typographical symbols over the past centuries. These terms have been based in aesthetics, artistic movements, and religious beliefs, but most of the terminology used today derives from technological concepts in general, and character encodings such as ASCII, PETSCII, and Shift-JIS specifically. A character encoding, simply put, assigns a code to each character so that it can be easily transmitted and decoded. A lowercase ‘a’ is encoded as 97 by ASCII and Unicode. EBCDIC encodes it as 129 and PETSCII encodes it as 65.
Technically speaking, it is crucial to identify the encoding in order to display text graphics correctly, which has led to genres like ASCII art, Shift JIS art and PETSCII art. But how relevant are they for aesthetic and cultural purposes? I first started to ponder this question while collecting and categorizing works for the blog Text-Mode. Browsing through tens of thousands of images of text graphics it became increasingly problematic – sometimes impossible – to identify the character encoding. Was this 1960’s print-out made using ASCII, EBCDIC, Baudot, Morse Code, or some other way of encoding?[1] And if the encoding is unknown, how should the work be categorized? Perhaps there are more relevant criteria for categorizing text graphics?
In popular terminology ASCII art is often used as an umbrella term, including works that has little or nothing to do with ASCII: typewriter works from the 19th century (when ASCII did not yet exist), twitter art (which uses Unicode’s UTF-8 encoding, not ASCII) as well as video-to-text conversions as seen for example in The Matrix (where the encoding is unknown or even non-existent). What matters here is the visual appearance, not the modes of production.
As such there are two opposing uses of the term ASCII art. In its broadest sense, it can be understood as a popular genre based on visual aesthetics, detached from technology, that changes across time and space. The stricter meaning mentioned earlier is based on technological determinism to essentially make an objective claim that any graphics made with ASCII encoding is ASCII art.
The purpose of this text is to give a brief overview of ASCII, ANSI, PETSCII, Shift-JIS and Unicode art and how these concepts have been shaped by technology, culture and aesthetics, to discuss alternative categories for text graphics that can be relevant also in the future, when these character encodings have possibly been made obsolete.
The Materiality of Text Graphics
Strictly speaking, character encoding does not say anything about the appearance of the work. An ASCII-encoded work can be displayed with a colourful vector typeface of warning signs or other pictograms, printed in high resolution on gigantic posters. A work like this would hardly be labelled ASCII art unless the production process and the encoding was known, if even then. This is not to say that materiality does not matter, but it needs to be refined beyond encoding.
The model below is useful for studying computer-based text graphics, but can also be applied to text graphics in media such as typewriters, books, and video where the encoding can be irrelevant. As such, the model caters for both generic pop cultural perspectives, and highly specific materialist studies. It is based on the model in Carlsson & Miller (2012) and identifies seven layers: from the perception of the viewer, through media and formats and aesthetics, to the abstract set of symbols that precedes the encoding into a character map.
7. Perception
How, where and when the text graphics is perceived.
6. Display
Medium (screen, paper, textiles) and its characteristics (aspect ratio, resolution, colours, artefacts).
5. Format
Storage and protocols (txt, doc, markup, images, movies, control characters, metadata, code).
4. Design
Typeface (design, resolution, scale, fixed or variable width) and typography (grid-based, colours).
How a selection of symbols are organized into a character map (see Whistler, Davis & Freytag 2008).
1. Symbols
An abstract set of symbols of a system (language, alphabet, ISO graphical symbols).
ASCII Art
In a strict sense, ASCII art should only use 96 of the 256 characters in the ASCII standard.[2] In 1990’s internet Usenet groups such as alt.ascii-art, this was strongly enforced because other characters would not display correctly, and could crash the viewer’s system.[3] This encouraged an alphanumerical aesthetics of predominantly line-based text graphics, sometimes referred to as structure-based (Xu, Zhang & Wong 2010). The works were made for monospaced and monochrome typefaces and were often figurative interpretations of animals, faces and objects.
ASCII art had a similar basic meaning in the so called scene (see Albert in this issue), although it used low-res pixel fonts and often looked more similar to graffiti and logotype design than the Usenet ASCII art did. But there were, and still are, conflicting opinions in the scene about what constitutes “real” ASCII art. One such conflict concerns typefaces, especially between PC and Amiga text artists. Amiga ASCII is displayed with Topaz or similar fonts[4] where the slash and backslash characters – / and \ – join together with little or no gap when positioned next to each other (as seen in Stylez’ piece). This is not the case on PC where the MS DOS font is used. As shown in Simon Jansen’s piece, there is a gap between the characters which is one of the reasons why Amiga and PC ASCII art is incompatible with each other, and why they each developed different aesthetics.
Another conflict concerns works that use more than the original 96 characters, which many do. These works are often labelled as block ASCII, extended ASCII, or high ASCII, while die hard critics might dismiss it as “not real ASCII” since it uses more than the original 96 characters. There is a particularly strong divider between ASCII and ANSI art (see below) in this sense, although they both use the same typeface and encoding.
Shift-JIS Art
What is called ASCII art in Japan, AA for short, is usually called Shift-JIS or SJIS art in the West. It is made with Japanese characters encoded in either Unicode’s UTF-8 or in a Japanese encoding such as Shift-JIS or EUC, displayed with fonts such as MS PGothic or Mona. With a much larger character map than Western ASCII, as well as a variable width vector font, Japanese ASCII art is distinctly different from its Western equivalent. As demonstrated in the pieces by Illiozilli and Runte0531, it is possible to create more fine details and complex shapes, compared to Western ASCII art.
It should be noted that ASCII art is a more popular phenomenon in Japan compared to many other countries. Popular memes such as Pedobear and Mona originate in text-based web boards such as 2channel, and even appear in mainstream culture. Another mainstream form of ASCII art is kaomojis, a more intricate (and horizontal) equivalent to emoticons such as :) in the West. You might have seen happy faces such as (* ^ ω ^) or the table-flipping kaomoji ( ╯°□°)╯ ┻━━┻ or the Lenny Face: ( ͡° ͜ʖ ͡°). As such, ASCII art is common in online culture and is often copy-pasted and remixed by anonymous authors, which makes it possible for a different kind of perception and contextualization, compared to the West.
ANSI Art
From an aesthetic perspective, the main difference between ANSI and ASCII art is that ANSI uses colours. Both use the same typefaces, character map, tools and resolution but each text character in ANSI art can have two colours: one background colour and one foreground colour for the text character itself.
On the Amiga, colours are mostly used to colourize traditional line-based ASCII art, which is sometimes called Amiga ANSI. PC artists however, developed a distinct style using shading characters, from █ and ▓, ▒, to ░. ANSI art often focuses on these shading characters which makes it appear similar to pixel graphics, especially when using a higher resolution (more than 80 characters wide). Consequently, ANSI art is often misperceived as a form of pixel graphics rather than text graphics.
In Taiwan there is a thriving ANSI art scene at the popular text-based bulletin board system PTT. It is ranked as 860 on the list of the world’s most visited sites and makes extensive use of ANSI graphics. It uses a Chinese character map with a much larger selection of blocks compared to its Western equivalent. This has spawned an aesthetic that is not focused on the shading characters, but rather on the geometrical full colour blocks as demonstrated in the images by jacky90527 and else.
PETSCII Art
PETSCII is a character encoding developed by Commodore for 8-bit computers such as the PET-series and the Commodore 64. Today, PETSCII art usually refers to graphics made with the built-in typeface of the Commodore 64. The typeface has a large selection of semi-graphical characters like circles, blocks and triangles which makes it possible to create gridded mosaics in a similar way to ANSI.
Unlike ASCII and ANSI, PETSCII art was not released as separate artefacts in its own scene. Up until the early 2010’s PETSCII-graphics was only scarcely documented online, which changed after an increased interest for PETSCII around 2013. New programs to create PETSCII graphics were launched for modern computers with options to save the graphics as common image files and not only C64-specific formats.
All these conditions helped to to broaden the interest for PETSCII as a creative medium, as more detached from technical and subcultural norms than ASCII and ANSI is. PETSCII graphics, in some popular understandings, is just a typeface organized in a grid, presented as images and GIF-animations online. In the Commodore 64 scene on the other hand, there are still discussions about what constitutes “real PETSCII”.[5]
Unicode Art
Unicode’s UTF-8 and UTF-16 encodings are used in a majority of operating systems, platforms and websites today. As of version 9.0, Unicode covers more than 128,000 characters from scripts and symbolic systems from around the world. For text artists in countries like Japan where there were several incompatible standards, Unicode was welcomed as a unifying standard.[6] Even so, it seems rare to talk about “Unicode art”. ASCII art or AA still seems to be the dominant terms in Japan. In the West, it is even more rare to talk about Unicode art. A possible reason for that is that Western text graphics established itself before Unicode became mainstream, and now Unicode lacks support for those traditions.[7]
There are indeed few indications that Unicode art will replace ASCII art as a popular umbrella term in the West, even if most new text graphics technically is Unicode. But perhaps the future ASCII and PETSCII-artists will use Unicode art to describe “the other”, non-traditional, text graphics; works that require more characters, colours, vector graphics, and Unicode functionality: Japanese ASCII art, Chinese ANSI, Twitter art, emoji art or experimental text art such as Glitchr.
Final Discussion
The categorization of text graphics is a complex mix of culture and subculture, place, and technicity, as this text have shown. Categories like PETSCII, ANSI and Teletext are named after the encoding, although it is the low-res typeface and its characteristic semi-graphical characters that is the key identifier, in most contexts.
Other categories are based more on which characters that are used. When an ASCII artist in the East or West uses alphanumerical characters and focuses on lines rather than blocks, it is usually considered to be ASCII art, both in popular culture and in more specific scenes. But when ASCII artists – again, both in the East and the West – focus on geometric or block characters instead of alphanumerical characters and lines, it gets more complicated. The scene uses a number of fuzzy concepts based on either technology or aesthetics or both, to categorize it. In popular culture these works are sometimes even called pixel art in lack of better words. This style has also been called tone-based, as opposed to structure-based (Xu, Zhang & Wong 2010).
Here I suggest the term text mosaic to describe these works. As an aesthetic concept, I have found it useful to group together the blocky aesthetics typical for text graphics made in eg ASCII, ANSI, PETSCII, Unicode, Shift-JIS, Teletext, as well as the text graphics of many 1980’s 8-bit computers. These works are less concerned with alphanumeric and box-drawing characters and instead focuses on solid block elements such as █, ▖, and ▙, geometrical shapes like ◢ or ●, and shading characters characteristic for ANSI art: ▓, ▒, and ░. Text mosaic uses the same material underpinnings as ASCII art but has a distinct aesthetics that is visually akin to tile mosaics, ancient woven or knitted crafts, and painted minimalist works from the 1960’s. As such, it opens up new historical, cultural and aesthetic connections compared to the usual typographical ones.[8]
Throughout this text the term text graphics has been used as an umbrella term to refer to ASCII art, text mosaic and related phenomena. The avoidance of the art term is a conscious choice to connect text graphics to histories of crafts rather than art. One reason for that is that practitioners – since the early days of typographic ornamentation and typewriter works to recent days of scene art – have emphasized the role of skills and manual work over ideas, concepts and contexts.
Hopefully these terms, along with the text graphics model, can be helpful in future studies of text graphics that aim to combine both materiality, history, aesthetics and culture.
[4] Amiga ASCII-artists developed Topaz-like fonts especially for ASCII art, such as mO’sOul by Desoto, P0T NOoDLE by Nudel and B-Strict by Mortimer Twang.
[5] “If you can print it, it’s PETSCII” was the slogan of the Plain PETSCII Graphics Competition in 2013, which essentially limited the use of characters.
[6] Japan uses several incompatible encoding standards such as JIS, Shift-JIS, Unicode and EUC and there is no de facto standard.
[7] Unicode does not include characters from e.g PETSCII, MouseText, Videotex, Teletext, ATASCII, Amiga ASCII, or SharpSCII.
[8] See for example Danet (2003) who connects text graphics on Internet Relay Chat (IRC) with textile traditions such as quilting.
In recent years I have been making a number of works incorporating text, often in ways which might be regarded as contrary or perverse, for example a text in the form of a jpg, posted to the photo sharing site Flickr, about a photograph I decided not to take and a short movie about the city of Stavanger in Norway using Google street view images but eschewing the images themselves for a slightly poeticized textual description of them. Other recent works have included a series of 51 paintings incorporating apparently naïve textual self descriptions or reflections.
I describe and contextualise these works as artworks, led by my fancy rather than any research programme, but I also attempt to summarise some provisional lessons learned (or perhaps better and more modestly insights gleaned) from making them, about the relationship between image as image and the textual glossing of it, a question given particular sharpness since the rise of conceptualism.
To scaffold my discussion I draw on some of my own recent writing on questions of art and knowledge, Frank Sibley’s classic contribution “Aesthetic Concepts” as well as a forthcoming paper by the philosopher Constantine Sandis “If an Artwork Could Speak” on art and meaning.
prolegomenon
In what follows I am going to introduce and meditate upon three of the text related artworks—one a digital image, one a video and one a series of themed paintings — which I have been making over the past few years and try and make some observations about how they might illuminate, in some sense, the relationship between text and image and the nature of each of these.
I will justify discussing a set of paintings in a journal devoted to matters ‘audio-visual’ on three grounds. The first is that paintings are unarguably visual, the second is that I regard my work, which straddles the digital and the material, as indivisible and the third is that the paintings would not have existed in the form they do without the precedent of all sorts of networked/remix/moving image related practices.
The three pieces might be thought of as ‘stress tests’ of text, asking it to do jobs not normally associated with it, or placing it in an unfamiliar or counter-intuitive context, though I want to insist that the pieces under discussion and their companions do not constitute a conscious ‘research programme’ of any sort. It seems to me it is not the business of the artist to subordinate artistic practice to this end but rather simply to allow the free play of conscious and unconscious mind, of the body, of feelings and interests in a sort of grown-up playtime, leading where it will. That’s how these works came to be. I did not know completely in advance either what I would end up making and whether the pieces would be aesthetically successful or not (and this uncertainty seems to me, following Sibley (1959) to be a defining feature of all art making).
What I can safely say is that the legion of ambiguities around word and image and meaning are things that interest and engage me—I have always loved puns, for example—and they have constituted an important part of my personal intellectual and affective formation, never far from the surface of my unconscious. Indeed it is precisely the possibility of their presentation as paradox or puzzle, that make them, for me, interesting as subject matter for art.
Leaving Sibley to do the heavy lifting for rejecting the possibility of articulating a successful aesthetic strategy before one actually gets stuck in and makes, I want to cite a second, for me foundational, notion about the artwork and that is the rejection of the idea that artworks—visual, literary, musical—have something that we can term a ‘meaning’ or even a set of ‘meanings’. For a long time I have felt this ascription to be a category error:
…works of art are not messages but objects. They don’t say things nor ask questions, nor assert, nor investigate. Neither do they as objects have messages somehow encoded or embedded within them. To assert otherwise is a massive category error. As objects they may of course be brought in evidence, copied, become conversation pieces, be described well, be described badly, be described perversely, be seen, be half seen, be missed, be lost, be found, be written about, point to things, be compared and many other things, some of which have not yet been imagined. (Szpakowski 2012b)
and I was pleased to read recently a more rigorous and lengthy setting out of a similar position by the philosopher Constantine Sandis (2017):
Neither understanding nor communication is reducible to the acquisition of new facts. There is a difference between understanding the words a speaker has said, and understanding the speaker–understanding the ’why’ as well as the ’what’. Wittgenstein states that ‘if a lion could talk, we could not understand it’, not because of any insurmountable language barrier, but because we wouldn’t know what it was aiming to do with its words. We need to free ourselves from approaching communication as something geared towards the transmission of information. In the case of aesthetics this involves a rejection of the supposition that the meaning of a work of art is whatever the author intended to communicate with it, and that to understand this work of art is to understand this meaning; an old chestnut in a new fire. (Sandis, 2017)
If artworks cannot be said to have ‘meanings’ then in what sense can they assist us in any project of clarification of ourselves, the world and the things we do in it?
In (Szpakowski 2016a, 69–92) I make an argument for artworks in general as creators of a very specific kind of knowledge, which I call ‘knowledge-with’ and I also begin to sketch a mechanism by which this might happen. My concept of knowledge-with is related to but not reducible to notions of empathy, fellow feeling and understanding what a thing or situation or person is ‘like’. I propose that this kind of knowledge is intimately and inextricably entwined with the aesthetic charge of any work. A term in the argument towards this is my attempt to show that it cannot be said that it is a necessary condition of being an artwork to engender knowledge in the form of true facts about the world—what traditional epistemology deals with, and what has been termed ‘knowledge-that’ (Fantl 2016). I will not recapitulate my original argument here. The interested reader can find and follow it for herself, but it is important to mark the caveat that it does not exclude that as a by-product some artworks might on occasion offer us some measure of knowledge-that, an example being the use of artworks as secondary sources in history—how people carried themselves in certain situations, what certain institutions looked like, how people dressed for different activities &c.
Together these positions radically undermine any possibility of art practice as research in any sense analogous to how research in the sciences or social science is generally understood. I believe this undermining to be a wholly positive thing since it allows us to understand how art works might help us towards a different sort of clarity about things, people, practices and institutions in the world.
This will resemble much more a secular version of a koan (Fisher 1978) within the Zen Buddhist tradition than any increase in our repository of true facts. That is, a sudden realisation that ‘this is how things are!’ or ‘Ah, this is how things are connected!’. Neither is this sort of idea without precedent in the Western philosophical tradition—a preference for seeing things in their place and context over an attempt at scientific explanation can be found in the work of the later Wittgenstein, principally in the context of philosophy itself ‘Philosophy simply puts everything before us, and neither explains nor deduces anything.—Since everything lies open to view there is nothing to explain.’ (Wittgenstein and Anscombe 1989, 50), but in aesthetics too and also in relation to psychology and the history of religion (Cioffi 1998).
I want to make one final conceptual/methodological point. Elsewhere I have written of my sense of the artwork as not only the artwork proper but all the epiphenomena that spring up around it.
Just where and when is the actual art object? …Think of the physical object itself at any point in time as the visible section of the iceberg… Or think of it as casting a penumbra in time and space; this, not the physical object but nonetheless inseparably of it. Object plus ripples—critical commentary, the references in other media: advertising, stand-up comedy, song; the popular image—jokes retold at work or in the pub, references to these—echoes of echoes… So we should think of the artwork as a sum over time: of all its moments, all its sources and all its consequences—and though this totality will never be accessible to any single human being it is nonetheless a real thing, theoretically observable and enumerable, not ideal or mystical. (Szpakowski 2010, 24)
It is my strong feeling—and its fleshing out requires much more detailed future argumentation—that it is precisely in this dialogic extension of the boundaries of the work and in this eclectic rag-bag of practices and responses that our ongoing engagement with and absorption of ‘knowledge-with’ continues to develop ie. that there is an inescapably social dimension to it. I will try offer some evidential support for this hunch in my discussion of the third work.
I will discuss each piece in turn by describing its format and appearance as impartially as I can. I will also talk about my own process of making it. I will attempt, too, to step outside my authorship and put myself on the ‘receiving end’ of each work. Because I am the same person in each case I will inevitably fail to maintain this distinction with any real rigour.
1. a photo I didn’t take today
This was chronologically the first in this group of text related pieces.
The facts of the piece are these. It consists of a short text which I wrote simply as a text, being on one level an attempt to describe straightforwardly and accurately something that happened to me and the way it made me feel. I wrote it in Word and pasted the text into Photoshop to create a 4×3 ‘image’. I even gave it a small black border to emphasise its existence in a defined format and space. Close examination of the image will reveal ‘imperfections’—irregular left-alignment of the text, what appear to be anomalies of spacing, some incorrect punctuation—all easily correctible in a file encoded as text but frozen into place by the image–nature of the piece.
I then posted the ‘image’ to the photo sharing site Flickr under the title a photo I didn’t take today (“a photo I didn’t take today” 2011). The image posted to Flickr is 300dpi and approximately 30X58 inches, matching the high resolution original on my computer. This means that it would be quite possible to produce a good quality print at over a metre wide for gallery or other display. This sense of the physical potential of the piece was important to me in the same way as selecting a digital format—the jpeg—intimately associated with image files. I wrote above that on one level the piece was simply the description of something that happened and my response but it is, of course, much more. As soon as I began to write the question of style arose. I realised that to an extent I was channelling a favourite author, the late German writer W. S. Sebald, and producing a pastiche or perhaps even a gentle parody of his style. I opted to accept that this was the case and so I continued, consciously offering more and more carefully observed (or at least carefully recounted) minutiae, much of which was not strictly relevant to the incident (or lack of incident) itself but which built up a perhaps slightly comic picture of me as a somewhat clumsy, bemused and indecisive protagonist. Towards the end of the piece I further picked up steam as I inserted a quote from a Sinatra song and finally turned a sharp corner into a short coda with a terse but (it seemed to me) poetic account of another frustrated attempt at imaging something.
I felt that this slightly over-keen embrace of literariness rendered the writing more ambiguous, perhaps to the extent of casting doubt upon the facts of my over-fussy account of the original incident, and that this doubt somehow mirrored or rhymed with the wilful perversity choosing to present the whole thing in a visual format on a photography site.
I dislike the word overdetermined. It usually signals bullshit on the horizon but here I feel I really want to use it. I want to say that I set out to make something that was as overdetermined as possible.
I very recently learned that the year after this piece was made, the photographer and writer Will Steacy (2012) published a book entitled Photographs Not Taken in which a number of photographers write about a photograph they failed to take for one or another reason.
I want to assert that despite surface similarities my feeling is that the two projects are qualitatively different. My assertion would be that a photo I didn’t take today is positioned as a work of art and as such, in line with my initial arguments, carries no specific meaning and whose principle force would be aesthetic. This, with the qualification that I argued above that the ‘aesthetic’ is closely entwined with the kind of knowledge I have called knowledge-with. Clearly the presentation of Steacy’s project as a non-fiction book (where texts, if you like, belong, or at least are often accustomed to find a home) means that its reception is more straightforward. We can read about the technical, ethical and other scruples of professional photographers focussed through the prism of images they had hesitations about. In doing so we might then feel we can take away straightforward lessons in these matters.
It is entirely true that the textual a photo I didn’t take today contains references to some of these ethical and technical issues but they are contained, as it were, within the ‘inverted commas’ that characterise the artwork. A construct, a thing, not message or messages.
2. Stavanger Street View
The second piece I want to consider is a video entitled Stavanger Street View. I made the piece specifically to submit to a festival in Stavanger, Norway, where work was to be projected on outdoor screens in the city centre. I had never visited the town although I had previously visited Norway and I do speak and read Norwegian to a limited extent.
I decided to scope-out the town using Google Street View. I had used this as an input to artworks before, particularly for paintings, where I “transcribed” screenshots that particularly interested me as paintings, mostly in fairly thickly impastoed oils (an exercise, it might be said, in translation). I had also made a number of stop motion animations of my virtual passage through a place by means of Street View, the most fully developed of which is Shit Happens in Vegas (Szpakowski 2012a).
I suppose that precedents of both a photo I didn’t take today and the Vegas piece were still somewhat fresh because their conjunction, in the idea of describing rather than presenting, or perhaps presenting-through-describing-in-words images from Street View that I found particularly of interest, came to me quickly.
I found several such resonant images (although, for some reason, I didn’t take screenshots or URLs but remembered, with one exception, the ‘in-real-life’ addresses. I have not been able to find the location for the fifth, final section again.) and I wrote text about them in a mixture or English and Norwegian. Where my Norwegian let me down I used a dictionary or Google translate to fill the gaps. (I later asked a friend who is a native speaker to correct my text. She spent time talking me through her corrections so I could be sure that the final text corresponded as nearly as possible to my original intentions.)
Once I had a final text I created the video. There are five sections of text and each has its own title. The text for both occupies a line loosely along the horizontal centre from the top and bottom of the frame but slightly closer to the top. It is quite large, occupying approximately one sixth of the vertical space. The titles, both of the piece of a whole and the sub-sections, are motionless at the dead horizontal centre of the frame. The substantive texts move slowly across the screen appearing at right and exiting left and pass at a comfortable reading speed. Each text is divided up into subdivisions by two adjacent forward slashes. The texts resemble poetry both in their division into ‘lines’ and in their diction, which is heightened, though the vocabulary is simple. Once again I was mindful of the ambiguity of presenting a set of words which described (or related to) images in a format which would normally be used for something closer to what we normally think of as images.
Coming back to the piece, trying to see it ‘from the outside’ the first thing that hits me is the language. At the time of making the piece I understood every word of the text (since I had been through even the alterations to my original Norwegian in some detail with my language helper) but returning to it I had to refer to the English translation that I had posted online with the video (“Scenes of Provincial Life – Post #455” 2013). The stark and clearly intentional ‘designedness’ of the visual presentation elicits a frisson even prior to any attempt at understanding but feeling a degree of linguistic uncertainty reminded me what the experience of the piece would be for a non-Norwegian speaker and it became clear that understanding the words matters and is a key part of a full experience of the piece. (Something that is not always immediately apparent when one views work involving text in one’s own language, especially for native English speakers where so much of the world accommodates itself to us.) Nevertheless, the experience also led me to believe that the piece could be approached by a non-Norwegian speaker by carefully matching the English translation to the Norwegian text. This opens up interesting questions about what constitutes the limits of the work. Do we insist that properly it is constituted by the video alone or do we allow its extension into an accompanying translation? Would this render irrelevant or somehow artistically offensive making a ‘translation’ of the piece as a new moving image piece, for even into a close language such as English this would alter its appearance and rhythm? Languages with syllabaries rather than alphabets, and/or with logograms would take us much further away visually, as indeed would languages read from right to left (or, as in some literary traditions, up-down). The further thought occurs that for those speaking English or another Germanic language there are glimmers of understanding to be had even prior to having an accompanying translation, in that a number of vocabulary items will trigger associations (and this understanding will be almost total in the case of Danish and near total for Swedish speakers — one could perhaps assemble a ranking of linguistic distance in this way).
There is an interesting supplementary comparison to be made here with calligraphic traditions in languages whose writing is constructed with logograms, where calligraphy has both symbolic and visual content and where the interaction between the two gives rise to an affective power which could be said to be more than the sum of the constituent parts. Here is Sturman (1997, 134-5) discussing an eleventh century poem attributed to Yu Xin and written in so called ‘wild’ cursive Chinese calligraphy:
This roller-coaster movement is emphasized by some noteworthy conceits in the calligraphy, especially the manipulated placement of the poem’s directional words to prompt awareness of the writing’s physical dimensions. Dong (east) begins the poem at upper right, while bei* (north, part of Bei Zhu’s name) is found at the opposite end of the column. This can hardly be coincidental, since the fourth and fifth columns open, respectively, with the characters shang (up) and xia (down). Conscious intent probably also underlies the writing of the character chu (emerging) with a thick charge of ink that quickly fades into a paie feibai (flying white) effect in the next character mo* (disappearing) at the bottom of the third column.
Of course the minimalist design on the page in Stavanger Street View is massively different in degree from the case cited above, but that it is a question of degree in the conscious visually oriented arrangement of symbols, and not a qualitative break, is underlined by Sturman’s subsequent observation that within the Chinese calligraphic tradition Yu Xin would be regarded as a ‘vulgar fellow’ and the poem discussed above ‘fit only for wineshop walls’ (ibid), and his further observation that the central calligraphic tradition discussed by him is much more a matter of ‘…understatement: characters play off one another through subtle balance, creating movement that might be likened to a stately dance’ (ibid).
For someone who does not experience the language in Stavanger Street View as a barrier in any sense, to whom it is transparent, I think there is, or, at least, I find there is, a sense of mystery, of strangeness, in how the language is both descriptive of quite precise images, enabling us to conjure up a mental picture of some definiteness, whilst all the while being aware that the relationship of this ‘picture’ to the Street View original (and indeed to the actual place imaged by the Street View vehicle) is highly problematic, not just on the chalk and cheese basis that one is an actual image on a computer screen and the second is a mental image (and the third is something of a completely different order, a real place allowing an infinity of possible imagings).
Let’s allow the deftest of court artists to make a serious attempt to transcribe the words as image. With the best will in the world this could not be but radically different from its ‘original’. I feel a strong tension between the different sets and formats of information, a tension arising from the fact one must work to convert the words to mental image or physical sketch to replace a fully detailed image which we know to exist somewhere other than in the movie and further that there are an infinite number of possible ‘solutions’ to this. An added tension arises from the fact that all of this process is implied within a format, moving image, which might ordinarily be the carrier of that ‘lost’ actual image. A further layer of complexity arises when we consider the process, almost algorithmic, certainly one remove away from full intentionality, by which the original Street View footage was captured.
3. 51 paintings for children and adults
My final example is a set of 51 paintings, largely in oil and all on the same size canvasses — 14X18″ (although the pieces vary in orientation) — of which I made the first 50 in an intense burst of activity between Sept 2014 and January 2015. They are entitled 51 paintings for children and adults (Szpakowski 2016b) and were made with the idea that they might prove to be of interest to both groups. I conceived of them, almost from the beginning, as a single large scale cycle but I have exhibited individual pieces separately. With two exceptions they feature some kind of text—usually, but not always, capitalized—in addition to their image content, although ‘in addition’ traduces the process since there is no set location across the series where the text is located on the paintings. The text is painted on in the same materials as the rest of the painting, with varying degrees of prominence in relation to the image content ‘proper’ and usually in a way which makes it an integral part of the overall visual design. (I quite consciously had in mind Chinese and Japanese calligraphic traditions referred to earlier where the visual as well as the symbolic aspect of the text carries affective force.) In all cases my intention was to make individual paintings which were of a piece, where the viewer would feel constrained to absorb both image and text together as a unity and furthermore to flit back and forth between symbolic and visual ‘reading’ of the textual component. Having said this, there are pieces in the series where one could argue that the image ‘proper’ is dominant (and there are also two pieces entirely lacking text) and other pieces—particularly where the text occupies the greater part of the painting—where the eye is drawn first to the text’s symbolically conveyed ‘meaning’, though it is important to note that even in these pieces subsequent examination yields a surface full of painterliness.
The subject matter of the pieces was fed by my biography and interests, including my fondness for wordplay, my childhood memories and enthusiasms. The meaning content of the text ranges from simple description of its ‘partner’ image, to ruminations on/contextualisations of the image, to puns, jokes and occasionally flat ‘contradictions’ of what we see. The texts are almost all in English although Russian appears in two pieces too.
I deliberately set out to encompass a wide range of topics and tone within the series. Humour is present—#48 lists the names of the days of the week vertically and in a right hand side bar the words ‘Those were the days’ is written vertically, a joke of sorts in English when delivered verbally, its freezing in ‘painting-time’ doing something further odd and teasing to it—but so, too, is high seriousness. #29 contains a verbatim section of an account by my late father of his trial as an ‘Enemy of the people’ in the WW2 Soviet Union and the figurative component is a rendering of a photograph of a guard tower from one of the Gulag camps. The final piece, #51, was made the day after the Bataclan atrocity in Paris with the simple text ‘I know that somewhere there is light’ against a dark background suggestive of a barrier or wall. An indecipherable symbol, resembling a started and abandoned letter follows the word ‘that’.
#14 offers a variant on Magritte’s Le Trahison des Images with an image of a pipe (here of the sort used for transporting fuel or water) together with the text ‘THIS IS A PIPE’. #43 is a loosely painted transcription of a webcam screenshot of countryside near to where I grew up, whose text is simply the webcam data for the day and time I looked at it and #36 is a reworking in oils of a drawing I made when I was six years old, with misspellings—‘a map of a robery’—retained. #31 recalls an episode from Gogol’s absurdist short story ‘The Nose’ , # 11 a late poem by Wallace Stevens and #7 places a small copy of Christopher Wood’s painting ‘Zebra and Parachute’ onto a gallery wall with spectator and the prominent text:
‘ON THE WALL OF THE GALLERY HUNG A STRANGE* PAINTING BY CHRISTOPHER WOOD *AND MARVELLOUS’
The interested reader can consult high resolution images of the whole series in the online archive referenced above but I hope I have said enough to indicate that the 51 paintings are intentionally heterogeneous in tone and subject matter and are drenched in appropriation, reference and remix. They look out into the world. They stir the pot. They confuse what it is to write, to speak and to make images.
I showed all 51 of them in early 2016 in a group show at the 20-21 Visual Arts Centre in Scunthorpe, UK. I was fortunate to have the writer Teju Cole write a catalogue piece for them. When he accepted the task I had no idea what would be forthcoming. I want to mark here again my scepticism about art and conventional knowledge and to underline my sense of the artwork as something with expansive and fuzzy borders in both space and time, for what did emerge was not theory nor description nor commentary but a work of literature that echoed the structure of my sequence, sang its themes back to it in variant forms and in a sense completed it (although further ‘completion’ is by my account entirely possible).
Cole’s piece is entitled 51 Thoughts for Children and Adults (Cole 2016) and is a work of great density but also concreteness. The connection between his piece and my work is a complex and rich one. The 51 Thoughts… do not match, sequentially at least, the 51 paintings and their content only rarely includes an easily discernible address to a particular painting in the sequence which even then is dense, opaque and heightened:
6 Sometimes 6 is 8.
17 “Well?”: the ambiguity is ground-breaking
40 “Jailbirds”: More than a one-liner because, as we all suspect, punning lives next door to music, and might well be used for divining. (ibid)
There is great learning at play here—sometimes it feels as if a skein of careful links is being constructed from the painting sequence out to the world and to other writers and imagers of that world, mediated all the while by Cole’s humanity (by which I mean his being-in-the-world-as-a-human, not some vague compliment on his views or feelings or decency).
42 Félix Vallotton’s portrait of Gertrude Stein in 1907 was made methodically from top to bottom, as though he were lowering a curtain.
46 Toni Morrison said, “I am interested in what prompts and makes possible this process of entering what one is estranged from.” But what is just as astonishing, I find, is to enter what one seems to already be intimate with.
34 De Chirico, after the war: “Every object has two appearances: one, the current one, which we nearly always see and which is seen by people in general; the other, a spectral or metaphysical appearance beheld only by some individuals in moments of clairvoyance and metaphysical abstraction.” (ibid)
At other times Cole’s curiosity or interests or train of thought takes him far away from my initial concerns and he spins so far off into personal associations and recollections that I lose my sense of my own work, which is, I think, as it should be.
48 In one or other of the cities I know, I once saw children full of the light that their closeness to one boundary of life brings, and I saw their adults full of another light, the light of closeness to the other boundary of life. The children and their adults helped each other along, unconfused by the variations in what they knew. (ibid)
Cole’s text is a virtuosic exercise in tone and voice. Myth, humour, darkness, anecdote, the commonplace, ventriloquism, the list, the question… All these and many more are present. The breadth of tone and address matches that of the painting sequence and that is is a sibling work only the most wilfully blind or churlish could deny, or that this siblinghood proves to be a powerful and fruitful way of apprehending an artwork. (I cannot, of course, prove this. I can only say: “Look, think, feel. Do you not sense this too?”) I take this as confirmation that my starting points outlined at the beginning of this piece are not entirely misconceived.
A concomitant of some of those ‘scene-setting’ positions is that not only is art practice a problematic instrument for research as generally understood but that the central core of artworks might be more resistant to scientific dissection or explication than many might think. (This is not to dismiss art history, a different kettle of fish altogether, with procedures that can be perfectly well be included under the broad rubric of ‘science’.) What Cole’s lyrical response to the 51 paintings suggest to me is that we might learn more about an artwork from responses that are themselves in some sense works of art. This suggests that the exclusion by the academy of journalistic or belles-lettres responses to work as somehow not properly scientific or academic (as in, for example, and altogether shamefully, in the UK Research Excellence Framework) in favour of a model drawn from 19th and early 20th scientific discourse, is mistaken or at least that it draws an entirely arbitrary line.
In his piece Anti-Art as Cognition (2005, 82) Thomas McEvilley argues that ‘…the presence of language within the frame of the visual artwork does not need justification; it is not a radical break with established art practice but reflects a tendency which has been present for centuries…’ He goes on to list examples, spanning the centuries, from the Western canon to which he could have surely added entire traditions like the Chinese and Japanese where it is the separation of text and image which is the exception. He argues that with the advent of the twentieth century it is simply that the foregrounding of text/image combination and interaction gathers pace and assumes a much greater prominence (and indeed, one might suggest, then presents itself for the first time as a problem requiring a solution) and in this he is surely right.
I want to note this because it is important to stress that the presentation and thinking through of three of my own works here involves no claim to pioneer status, to originality or even to aesthetic value (although this last would be the single judgment from others I would most savour).
Many artists have made work with a family resemblance to mine, and well before I did so. Hollis Frampton, in particular, stands out as someone who, in films such as Nostalgia and Poetic Justice from his Hapax Legomena (2012) cycle, sets up some of the tensions between word and image I have discussed here in works of signal originality and luminous beauty.
It would be interesting to develop some of the ideas sketched here in connection with those masterpieces, but that is for another occasion.
Cioffi, Frank. 1998. Wittgenstein on Freud and Frazer. Cambridge, U.K. ; New York: Cambridge University Press.
Cole, Teju. 2016. “51 Thoughts for Children and Adults.” In We Are Not Alone(Catalogue), edited by Michael Szpakowski, 14–20. Furtherfield. http://furtherfield.org/WANA/wana-catalogue.pdf.
Fisher, John F. 1978. “An Analysis of the Kōans in the Mu Mon Kwan.” Numen 25 (1): 65–76.
Frampton, Hollis. 2012. A Hollis Frampton Odyssey. DVD. Criterion.
McEvilley, Thomas. 2005. In The Triumph of Anti-Art: Conceptual and Performance Art in the Formation of Post-Modernism, 1st ed, 82. Kingston, N.Y: McPherson & Co.
Sandis, Constantine. 2017. “If an Artwork Could Speak.” In Wittgenstein on Aesthetic Understanding, edited by Garry Hagberg. London: Palgrave Macmillan: 355–382.
Wittgenstein, Ludwig, and G. E. M. Anscombe. 1989. Philosophical investigations =: Philosophische Untersuchungen. 3nd ed., Repr. Cambridge, Mass: Blackwell.
While moving typography in general had been a creative scope since there were moving images, as a vital part of the graphic design of commercials and movie titles, the scrolling “ticker” rarely received the praise of artistic adaptation. It served merely as a workaround for printing long messages using the limited space of a computer monitor, to wrap a one-dimensional line of text around a two-dimensional screen medium and, to this day, is associated with cheap closing credits of tv shows and stock market data on a news channel. This article traces the evolution of moving text as a stylistic element of “crack intros” and “computer demos” between 1984 and 1992, from a simple line moving from left to right at the bottom of the screen to massive 3D letters free-floating in space. Until the early 1990s, when text messages began to disappear from demos, the demoscene turned out to be the most explorative and innovating culture ever to use the scroll text as an artistic device.
Introduction
The computer demoscene has received quite some attention among scientific researchers in recent years. Many investigations concentrate on the origins of the movement, the software cracking scene of the 1980s and base their argumentation on the analysis of the artifacts of these cultures, so-called intros, which were placed in front of pirated computer games, and demos, independent audiovisual presentations running as executable computer programs (Polgar 2005). It has become an accredited belief to regard these productions as both communication media and artistic statements of the scene, which seems obvious regarding the nature of cracker intros and early demos as works combining text, image, and sound (Reunanen, Wasiak, and Botz 2016).
But still the demoscene is considered as a marginal underground phenomenon of the home computer age and especially the visual output of the scene has rarely been the subject of academic studies, which is remarkable when dealing with a subculture that clearly defines itself for its creative productivity and has done so for over 30 years now. It seems that in most cases, the visible elements of style and artistic expression of a subculture are only examined in detail when they reach popularity outside the scene and surface in mainstream fashion. And in the case of the demoscene, this never happened.
Like in many “deviant” cultures, the artistic innovations of the demoscene do not originate from nowhere. They are mostly based on subcultural appropriation, sometimes transferring the aesthetics of popular movies, graphics or video effects to the limited capabilities of the common household computer hardware and combining them in a specific way into an audiovisual presentation for real-time operation (Reunanen, Wasiak, and Botz 2016, 813). In some cases, however, stylistic devices develop a life of their own when adopted by a subculture. They can evolve from a marginal supporting role to a leading motive, from a simple communication tool to a fetishized object.
This overview traces the evolution of the scroller, a text line moving across the screen, inside the demoscene, from a technique for displaying text generally disregarded for its poor aesthetic appeal to one of the most complex artistic forms of moving typography, a development unparalleled in the history of computer graphics. It will try to answer why scrollers came into existence, how they changed over time and why they disappeared all of a sudden, showing that the fate of this form of moving typography was mainly depending on five factors:
The rise and decline of the cracktro/demo as a communication device.
The competitive character of the cracker- and demoscene, which demanded higher visual complexity and more spectacle in each new production.
The technological progress of hardware platforms, which allowed for more flexibility to create computer graphics.
The development of the pictorial space in computer demos.
The changing forms of presentation and perception of demos.
The Scroller as a Communication Device
On looking through various texts about demoscene art, the scrolltext or scroller is regularly mentioned among the “classic” stylistic elements of cracktros and demos (Reunanen 2010). This is indeed noticeable because this specific way of displaying information neither developed any design traditions outside of the cracker-/demoscene nor has it ever received considerable recognition as an artistic element in general. On the contrary, while shifting a large text page upwards at least qualifies as “big movie ending”, the rolling single line at the bottom of the screen seems to have a bad reputation altogether. Game designer Richard Rouse III complains about the inconvenience of reading scrolling text in the mission briefing for computer games (Rouse 2005, 209). German media art authority Peter Weibel compares it to annoying non-stop-music rushing past the ears (Weibel 2000, 159). It is a known resentment even in contemporary web design: The “Marquee” tag in HTML is considered to be one of the most notorious usability faults. And up to this day, the rolling text line at the bottom of a tv screen is unanimously identified with 24-hour news, weather or home shopping channels displaying stock market data.
With this in mind, the question arises: How became this unpopular mode of text display one of the key features in the products of a digital subculture? Like most of the basic style elements, crackers borrowed the principles of text organization for their intros from the title screens of early computer games (Reunanen 2010, 58). But when the cracker scene adopted the scrolling text, there was actually no big tradition to draw on. The arcade machines used to deliver the usually scarce game instructions by unraveling pages of text letter by letter like a typewriter and resorted to flashing words to indicate demand for action, like “Player one get ready!” Home video game consoles like the Atari VCS rarely wasted time for introductory screens and started the game right away when switched on. On early home computers like the Apple II graphical but usually static splash screens were used in front of the games (Scott n.d.).
The emergence of scrollers eventually resulted from a new technical feature – the hardware scrolling abilities of the 1980s generation home computers like the Atari 8-bit series or the Commodore 64. The Atari 400 Version of Taito’s Space Invaders from 1980 is possibly the first game to feature a scroll text displaying the copyright message and it was the American software house Synapse Software which made regular use of the smoothly crawling text line at the bottom of the game’s title screen, becoming a trademark for the company. In games like Protector II, Sentinel or Shamus, this line was used to display the credits for the game, the assignment of keys as well as announcing more forthcoming software titles in the fashion of “Coming soon from Synapse”. Like the early crackers used to deface the game’s title screen by substituting text elements with their own handles and messages, it did not take long until some of the first cracking groups on the Commodore 64, German crews JEDI and Antiram, occupied the scroller, not only claiming responsibility for the copy protection removal but also shamelessly absorbing the advertisement which was altered to “Coming soon from JEDI”, thereby announcing that every Synapse game published will be cracked by the group (see Figure 1).
The proud advertising inside the Synapse scroller and its détournement by the crackers revealed a vital potential of the rolling text: The chance to communicate to the viewer beyond the standard information about the game at hand. While most of the essential instructions for the product appeared as static text to be grasped at a glance, the scroller could be used to grow the corporate image.
Crackers on the Commodore 64 did not limit themselves to mess up the title screen of games like the Apple II scene did. In 1984 the first cracker intros, or short, cracktros, appeared, transferring the crack message into a separate page before the actual game title screen. They consisted of simple – sometimes animated – logotypes and small static text elements. The first cracker intro to feature a scroller is probably the Danish Crackers intro for the game Ghostbusters dating from 1984 (see Figure 2). Alongside the close resemblance to title screens of contemporary computer games, it shows the new communication needs: The scroll text displays the member list of the cracking group, an information task which will remain important in the future.
As the scene transformed into the well-organized business of software piracy, scrollers took on various additional jobs. Sometimes a cracktro featured multiple scrollers simultaneously, each delivering another dedicated content (see Figure 3). The first scroller could be a short message containing the name of the cracked game, the release date plus the enhancements the cracker attached to it like for example an “unlimited lives” function (Wasiak 2012). The second would often contain the greetings list, which recites the names of respected and befriended groups inside the scene, often in preferential order, or would be used for news, invitations to copy parties, comments on other cracker’s releases or ranting at disliked other cracking groups.
Due to this partitioning into multiple independent text elements, cracktros had become modular pieces of software which could be easily edited for use on different cracked games. In this regard, the scroller became the key feature to turn the cracker intro into a communication device for an evolving subculture. It also helped to establish the cracktro as the ideal medium for self-expression within the scene, and it became the best solution for displaying large amounts of information while keeping the graphic layout of the screen intact. At the same time, the cracker’s specific use of the scroller revealed a basic characteristic of moving type: The “news ticker”-like volatility, the short time span between the appearance and disappearance of the words implies that the message is new, fresh and relevant, like a telegraph output. On top of that, the scroller forces its own mode of reception upon the reader. The constant flow of letters dictates reading speed and reading rhythm and does not allow for breaks. You cannot take your eyes off the streaming message. A reading experience like watching a movie.
The Scroller as an Artistic Challenge
Due to the competitive nature of the cracking scene, crackers not only had to be fast at delivering the newest games, they also had to come up with innovative and unique visuals for their cracktros, like skillfully drawn graphics or colorful effects. Cracktros had to look “sophisticated”, new and individual in the way they presented information. In the first place, this included everything which set the design of an intro apart from the standard text output of the Commodore 64, which was 25 lines of text, each containing 40 square characters while one character cell consisted of 8×8 pixels. It was possible to generate individual fonts by drawing own characters and combining multiple adjacent character cells could be used to double or triple the size of the letters (see Figure 4). But the greater aim of intro coders was to make scroll text rendering more flexible instead of just moving a single line from right to left. The numerous tricks involved shifting the vertical position of letters according to a sine curve to generate a “swinging line” or applying color cycling to the letters, whereby an animated color gradient causes the scroller to flash up and fade out again.
Good design was not the only consideration while creating intros. Intro programmers on the Commodore 64 tried to test the limits of the machine by coding effects that seemed impossible by then. Flash Cracking Group and 1001 Crew were the first to navigate their scrollers through the border of the C-64, a monochrome “safety” area around the screen initially designed to prevent the screen content from distortion near the edges of the monitor tube. Placing text where it was not supposed to work qualified as a true achievement. This technical gimmick provided enough sensation to distribute the borderletter as an independent production, not longer attached to a cracked game and later to be called a “demo”. But just as scrollers were instrumental in creating the demo format, they were also at the heart of competitive demo programming. Coders aimed at producing the largest letters (megascroller, see Figure 5), the greatest number of simultaneous scrollers (multiscroller) or the largest amplitude of a scroller following a sine wave path (mega-DYCP).
As scrollers are given such creative names, it can be concluded that they are consciously perceived as design elements. The question remains, however, what defines a “scroller” within the demoscene in contrast to its “news ticker” antecedent. Here, the scroller serves as a good example of the concepts of genotext and phenotext as popularized by Julia Kristeva. Inke Arns uses these terms to describe the multiple levels of text involved in digital works of the net.art movement (Arns 2004). The genotext is what generates the phenotext. While the visible screen content is described as the phenotext, the executed program code is the genotext. In the case of a scroller, the genotext can again be divided into three different texts: The character code containing the written content, the font bitmap defining the shape of the letters and the program routine used to display the text controlling speed, path, and transformation of the scroller. As the labeling of scrollers rarely refers to content or typography but almost always to the way of movement across the screen, it can be assumed that the display routine is the most defining element for a demo scroller.
During the second half of the 1980s a new generation of home computers established itself and, year by year, the activity of crackers and demo artists shifted onto the new platforms among which the Amiga series and the Atari ST were the most popular. With the graphical capabilities of these computers, graphical quality, variety, and flexibility of scrollers increased. The Amiga demoscene gave birth to at least three new types of scrollers: first of all, the improved color management of the Amiga allowed for seamless gradients, which led to the infamous “chrome” style of the late 1980s, where letters featured a mirroring surface, beveled edges and all kinds of metallic gloss. The second innovation consisted of mostly monochrome scrollers being bent and twisted in many ways (see Figure 6). This resulted in letters winding around a horizontal or vertical axis (tubescroller), being partially magnified as if seen through a glass lens or wavelike distorted as if projected onto a water surface. The Amiga scene was very ambitious about challenging the convention of the reading direction with the innovation of scrollers rolling on a circle-like track (circlescroller) or following an arbitrary path across the screen (snurklescroller, see Figure 7).
The third and most noticeable invention of the amiga scene was the expansion of scrollers into three-dimensional space. Proceeding from simple vector-based line drawings to solid letters, scrollers became increasingly involved in the perspective design of the pictorial space. In Hunt for 7th October by Cryptoburners (1990) the words rush past the viewer like a fast train (see Figure 8). After six years of development, scrollers finally appeared as architectural formations, making the reading process a spatial experience.
The End of the Scroller Era
When scrollers entered the virtual three-dimensional space, they had discarded their initial communicative purpose long ago. The distribution of pirated software via BBS (Bulletin Board Systems) began to replace postal shipping of disks and the file_id.diz text file took on the tasks of the cracker intro scroller (Reunanen 2010, 10). When demos left the context of the “illegal” software piracy scene behind, the communication needs of the demoscene changed, and so did the contents of scroll texts. Some parts remained, like the greetings list, announcements for – now legal – demo parties or bragging about programming skills. But according to the self-reflective nature of demos, scrollers increasingly tended to comment on the circumstances of their own production. Coders provided explanations of programming methods they used and even excuses for bugs they could not fix in time (Bader 1990, 184). Various demos feature two scrollers, the first commenting on the artful deformation of the second. Sometimes, the text is aware of its own transformation – “Yeeeaaahh Bouncing!!!”, as it reads in Legalize It by Vision (1988) – or hints at its own illegibility: “If you can read the following text you are an alien!!!”, as in the Circle Twist of the Red Sector Inc Megademo (1989).
Until the early 1990s, demos followed cyclical patterns. Like the first cracktros, a demo part was an endless loop, in which all graphical and textual elements repeated itself until being terminated by mouse click. The viewer would decide how long to read the scroll text and when to proceed to the next demo part, or, in the case of a cracktro, to the game. But with the increasing popularity of demo parties, where demos are screened to a large audience rather than being watched on a computer monitor by a single viewer, this format was abandoned in favor of linear structures where short segments follow each other without user interaction. In this fast-paced sequence of effects, long scroll texts not longer worked (Botz 2015b, 315). Additionally, typography was a useful style element within the two-dimensional compositions of early demos but did not match with the consistently three-dimensional pictorial spaces of demos in the mid-1990s. When the demoscene emerged on the PC platform, it inherited most of the style elements of the Amiga scene, but one of the unique characteristics of the PC scene consisted in the dismissal of the scroller, as the catchphrase “scrollers suck” from the demo Panic by Future Crew (1992) became a popular slogan (Botz 2011, 353).
Conclusion
In the three-decade history of the demoscene, scrollers occupied a short time span only. For a long time they had been unanimously identified with the “oldskool” phase of the demoscene (Tasajärvi 2004, 65), often disdained as an old and boring demo effect. Today it is possible to comprehend why the scroller had been appropriated by the cracker scene and developed into an artistic category as well as a technical challenge. In a world where digital communication is a daily routine, the scrolling messages of the demoscene appear as an obsolete and romantic format, like decorated letters, which, more and more, detached themselves from their communication function and turned into artistic exercises.
Finally, in the 2010s, scrollers returned to the Commodore 64 scene. Their comeback on the first demoscene platform, however, is not completely accidental, as almost all of them appear to be further stages of the low-resolution scroller, a variant predominantly developed on the C-64 and later on the Amiga (Botz 2011, 352; see Figure 9). This type of scroller functions as a coarse display matrix where each pixel is represented by another graphical element like a bitmap object or – again – a text symbol. If this matrix is being deformed and distorted, the text appears to be rolling on a twisted LED ticker display (see Figure 10).
This marginal return of the scroller, however, reminds us of one of the core concepts of demoscene art: To this day, demos are executable programs which are passed on to the computer as code, as linear text (Botz 2015a, 103). This is what sets them apart from movies. Thus, in very simplified terms, one could say that even if we don’t see a scroller on the screen, if watching a demo, we can always imagine a single line of alphanumeric code running inside the machine.
References
All links verified 14.6.2017
Arns, Inke. 2004. “Texte, die (sich) bewegen: Zur Performativität von Programmiercodes in Netzkunst und Software Art.” In Inke Arns et al. (eds.): Kinetographien. Bielefeld: Aisthesis-Verl (Schrift und Bild in Bewegung, 10), (pp. 57–78).
Botz, Daniel. 2011. Kunst, Code und Maschine—Die Ästhetik der Computer-Demoszene [Art, Code and Machine – The Aesthetics of the Computer Demoscene]. Bielefeld, Germany: Transcript Verlag.
Botz, Daniel. 2015a. “The Enhancement of Punch-Tape: Moving Type in the Computer Demoscene.” In Bernd Scheffer, Christine Stenzer, Peter Weibel, and Soenke Zehle (eds.): Typemotion. Type as Image in Motion [ZKM, Museum of Contemporary Art, Karlsruhe, November 16, 2013 – March 2, 2014, FACT (Foundation for Art and Creative Technology), Liverpool November 13, 2014 – February 15, 2015]. Ostfildern: Hatje Cantz, (pp. 101–3).
Botz, Daniel. 2015b. “Commented Archive. Schriftfilme from 1897 to Today: Computer Demoscene.” In Bernd Scheffer, Christine Stenzer, Peter Weibel, and Soenke Zehle (eds.): Typemotion. Type as Image in Motion [ZKM, Museum of Contemporary Art, Karlsruhe, November 16, 2013 – March 2, 2014, FACT (Foundation for Art and Creative Technology), Liverpool November 13, 2014 – February 15, 2015]. Ostfildern: Hatje Cantz, (pp. 308–21).
Polgar, Tamas. 2005. Freax: The Brief History of the Demoscene (Vol. 1). Winnenden, Germany: CSW Verlag.
Reunanen, Markku. 2010. Computer Demos—What makes them tick? Helsinki, Finland: Aalto University School of Science and Technology.
Reunanen, Markku, Patryk Wasiak, and Daniel Botz. 2015. “Crack Intros. Piracy, Creativity and Communication.” International Journal of Communication, 9(1), pp. 798–817.
Rouse, Richard. 2005. Game Design: Theory & Practice. Plano, Texas: Wordware Publishing.
We live in a time where hardware and software become obsolete before most of the users have learned how to use them, or they disappear into the obedience to standards that made us passive observers and consumers. Keys of Fury is brutalist storytelling about technology and keystrokes, and an artistic statement based on the concept, research and practice of KYBDslöjd, which I define as “drawing and crafting by type in”. It is based on the text-mode, where the grid is the framework and the character set is the instructions, using the Commodore 64 computer, teletext system, typewriter, mosaic and cross-stitch as media. I claim that old technologies are an unravelling force, a critique of the parasitic abuse of technology by postmodernity and capitalism, instead of a case for nostalgia. A new understanding, a message in an unknown language that we are still learning. Keys of Fury (Les Clefs de la Fureur) is also the name of the ‘Artist in Residency Le Shadok & Strasbourg European Fantastic Film Festival’ exhibition, curated by Esté-elle Dalleu and Arnaud Reeb in September 2016.
I am ready to burn. I am ready to shine. No fear, just text. You will see the mistakes and the wonders. Nothing is to be hidden, everything is to be typed. Brutality itself. Because type in is the noise of my ♥.
In 2010 I started to research the concept and formats of the text-mode, a computer display mode in which content is internally represented in terms of characters rather than individual pixels. In collaboration with Goto80, we started the Tumblr site called http://text-mode.tumblr.com (2012–2014), where we collected all kinds of media related with the term. But my interest was not only on art research: it was, as well, a starting point for my own epistemological practice. As Mersch and Radosh (2015) pointed out:
Like the process of writing, it has no end, it collapses in on itself and despairs of ever achieving closure. The artistic experiment has no utilitarian result. It is content with the adventure of finding the paths that can taken (meta hodos), and their endless labyrinthine branches are a source equally of agony and enjoyment.
I had been working with pixels since 2004 to create animations and designs, but it was just the beginning of the lo-fi adventure. When I changed pixels to characters, the joy of the text-mode began. The path I was looking for. The origin of KYBDslöjd, which stands for keyboard dexterity.
To be more precise, for drawing and crafting by typing, using just a character set provided, in this case, by the Commodore 64 computer, the teletext system, and typewriters. KYBD is the acronym for keyboard, on which a drawing or an animation is typed in by using different keystrokes for each mark on the screen or the paper. Slöjd means dexterity or skill. A complete method of craft stored in text. KYBDslöjd uses keys, references and applied media instead of Manovich’s (2010) concept of new media, “When new media objects are created on computers, they originate in numerical form. But many new media objects are converted from various forms of old media.” The following sections define the whole spectrum of what it is and what it stands for. They are: ‘Slöjd’, ‘Demoscene and PETSCII’, ‘Teletext’, ‘Brutalism’, ‘Typewriter, Cross-Stitch and Mosaic’, ‘The Language’, ‘Myopia for the Future’ and ‘Talk Is Cheap’.
Slöjd
Slöjd is a Scandinavian system of handicraft-based education from the nineteenth century. Hoffman & Salomon (1982) noted on the origin of the word:
The word Sloyd (Swedish, Slöjd) is derived from the Icelandic, and means dexterity or skill. In old Swedish, we find the adjective slög (artistic or skillful). In the Low German dialect, the word Klütern has a similar signification.
They also wrote about handicrafts’ need for attention, physical powers and perseverance, which are in clear contrast to the basic, fast knowledge that creates emulation of a skill, of art. Handicraft is dependent on bodily labor through the dexterity of the hand and requires training and cultivation of our bodies and our senses:
Slöjd has for its aims, as a means of formal instruction-to instil a love for work in general; to create a respect for rough, honest bodily labor; to develop self-reliance and independence; to train to habits of order, exactness, cleanliness, and neatness; to teach habits of attention, industry, and perseverance; to promote the development of the physical powers; to train the eye to the sense of form, and to cultivate the dexterity of the hand. (Hoffman & Salomon 1892)
But slöjd was also gender restricted, all forms were not accessible to everyone. The system of slöjd “established manual schools in which spinning, sewing, and weaving were taught to girls, wood-work to boys, and gardening to both”, asserted Hoffman & Salomon (1892). Nowadays these definitions are not as binding as they were in the past, but they still have a strong effect on the Scandinavian society, close to what Rodríguez Carrión (2013) declared:
The word “craft” brings to memory the “handmade” object. It is generally associated with manual dexterity, skilled artistry, and the art of making (process), but can also express cultural identity (such as folk art) and past traditions.
Considering that I did not grow up in the Scandinavian system, I do not have the same relation with the word as they do. Bauman (2000) noted: “To create (and so also to discover) always means breaking a rule; following a rule is mere routine, more of the same – not an act of creation.” In my opinion, nowadays the definition of slöjd is connected to what Dormer (1997b) wrote: “It is not craft as ‘handcraft’ that defines contemporary craftsmanship: it is craft as knowledge that empowers a maker to take charge (assume control or responsibility) of technology.” Responsibility rather than control, or even better, commitment. As Sennett (2008) pointed out: “The craftsman represents the special human condition of being engaged.”
In the long battle between art and crafts, low and high status, slöjd opens up an opportunity to take back the concepts as honest and rough labor, like the statement by Walter Gropius in the Programme of the Staatliches Bauhaus in Weimar 1919 (quoted by Conrads 1970): “Let us then create a new guild of craftsmen without the class distinctions that raise an arrogant barrier between craftsman and artist.” A mixed medium between craft and technology. A challenge, as Dormer (1997b) noted, “Computer technology now provides craft with its most serious philosophical and practical challenges.”
Demoscene and PETSCII
George Borzyskowski (2000) defines demoscene as: “[…] the subculture which survives on the basis of liberty and cooperation in the absence of coercive or cohesive structural influence”, and presents an overview of the ‘demo’ genre form in terms of function and audio visual syntax. In regard to demos, Borzyskowski continued:
Demos are not made without a cost. The amount of time, patience, knowledge and skill development required are far from trivial. To make a competent production in this genre, graphic, musical and programming ability must be integrated and the work can occupy from a few hours for an intro by a veteran group, to several weeks or months for a major demo release, as is often recollected in included texts.
AcidT* is my C64 demoscener name, and my first demoparty was Datastorm in February 2011, Gothenburg, where I started to work with PETSCII, one of the key media of KYBDslöjd. I learned the software and drawing technique at several demoparties along the years. PETSCII, also known as CBM ASCII, is the character set used in Commodore Business Machines’ (CBM) 8-bit home computers, starting with the PET from 1977 and including the VIC-20, C-64, CBM-II, Plus/4, C-16, C-116 and C-128. The character set was largely designed by Leonard Tramiel and PET designer Chuck Peddle.
Rodríguez Carrión (2013) noted:
We are seeing a new craft-resurgence in the figure of the digital craftsman within the subculture of hacking and tinkering (crafting) the algorithm (code) or the conception of parametric constrains. These computer enthusiasts are passionately pushing the boundaries of their work and are determined to investigate design boundaries within the virtual world.
This could also be related to Barbrook and Pit Schultz, who in their 1997 ‘Digital Artisans Manifesto’ propose the concept of a ‘digital artisan’, whose autonomous work is made possible in the manner of past craft workers (quoted in Cox 2010).
KYBDslöjd uses a particular way of working with keystrokes and PETSCII on the Commodore 64 with software developed by Mathman (Johan Kotlinski) called Nop. The program consists of two parts: a block of data statements containing the instructions where all the keystrokes are recorded and a section of code which reads in the data and outputs it as an animation and speeds it up. There is no menu, so all the instructions, like color, position and character shape, are typed on the keyboard. Only a black screen with just a blinking character is waiting for you to do something. This is the starting point, like a blank sheet where you are alone and no one else is to blame. Not even the technology for being obsolete. Sennett (2008) noted: “Getting better at using tools comes to us, in part, when the tools challenge us, and this challenge often occurs just because the tools are not fit-for-purpose.” In KYBDslöjd, hardware and software are a challenge, they are not decorations or sources of nostalgia. There is a narrative, a dialogue with the technology. I use the screen as a canvas, a rectilinear grid on which, one keystroke at a time, I build graphics and animations character by character, like crafting or the typewriter technique as Saper (2009) described: “In terms of the procedures to make your own typewriter poem, you should know at the outset that you cannot make corrections, so any unintended strikes force the artist to start over.”
It seems obvious to me how the notion of “skillfully executed” applies to the demoscene and KYBDslöjd, building the connection with craft and the link to typewriter art. The canvas and the characters are common to all, with the exception of hardware and software. As Saper (2009) noted:
Instead of looking to painting, drawing, or even typesetting as an analogy for typewriter poetry, one might look to a traditional folk art, embroidery on canvas, because both use a rectilinear grid on which to build the design one keystroke or stitch at a time.
Alan Riddell (1975) agreed, “One traditional craft has a similarity to typewriter work: embroidery on canvas. This has a rectilinear grid on which the design is built up one stitch at a time.” You cannot make corrections, so any unintended strokes force you to start all over again. This software is not meant for generative graphics. One special feature is that you can scroll up, down, right and left. As Hawking (1988) pointed out, “Imaginary time is indistinguishable from directions in space.” But when you go backward, the black blankness appears again. What you do is what you get. Straightforward. No shortcuts.
“The solitude of the draughtsman before the page is a way of understanding life… Enjoying the creative process is a unique privilege of the author. A pleasure-almost-exclusive for which it is worth to lose oneself”, as stated by Crespo (2015). I lose myself and I type.
Teletext
In 2016 I wrote a chapter called “Is it Just Text?” in the anthology Teletext in Europe: From the Analog to the Digital Era, edited by Hallvard Moe and Hilde Van den Bulck. The chapter looked at teletext from the perspective of an artist and of its artistic value:
It is argued that teletext is not just news on demand provided by television networks or a character set, and that it is about much more than nostalgia, profit, constraints, domesticity or zombie technology stored in a garage, because teletext performs in ways we have not fully designed it for and not yet fully understood. (Meyers 2016)
“Basically, what teletext did was make it possible to transmit digital text and graphics in color simultaneously with normal television programming… The viewer simply pushed a button on a remote keypad to switch from the network or locally originated video program to the main menu screen of the teletext service”, noted Graziplene (2000). By definition:
Teletext is a news and information service in the form of text and graphics, transmitted using the spare capacity of existing television channels to televisions with appropriate receivers. What the viewer sees on the screen of his teletext TV is a page of characters, 40 in a row, 20–24 rows, 800–960 characters per page. These characters can be presented in a limited number of colours, including coloured backgrounds, and the character set contains all the letters of the alphabet (both uppercase and lowercase), numbers, punctuation marks, special symbols, and graphics. (Meyers 2016)
Teletext is a means of building text and simple geometric shapes from mosaic blocks, and the second key media in KYBDslöjd. In 2011, when I got in touch with the teletext engineer Peter Kwan, who had developed an open source USB teletext inserter (VBIT), we started to work together in a long-term project for teletext live visuals. Teletext is not a physical object; it is the dark band dividing pictures horizontally on the television screen, used by the PAL system. Vertical blanking interval lines are like REM (rapid eye movement) saccades, a door to unlock the imagination. In the aforementioned chapter “I propose to look at teletext as techne, i.e. as knowledge of techniques and knowledge of a skillful or artful use” (Meyers 2016).
Teletext itself is free, a free technology. Business interest from television broadcast companies is long gone thanks to the internet – hobbyists took over as in the late 1970s. “The earliest users were home electronics enthusiasts who had built their own decoder units as add-ons to their television receivers using plans published in a popular electronics and wireless hobbyists’ magazine”, as Graziplene (2000) pointed out. Nowadays you can create your own teletext inserter with a Raspberry Pi and make your own teletext pages with an open source software called edit.tf, created by Simon Rawles. In late February 2017, at the “Block Party 2017: Teletext is the Future” event held at the Centre for Computing History in Cambridge, Dan Farrimond, Kieran H.J. Connell, Jason Robertson, Peter Kwan, Carl Attrill, Peter Fagan, Julian Brown, Alistair Cree, Steve Horsley, Simon Rawles and myself began to work as a collective to combine our skills, practice and knowledge with a technology that still has much to say. As Sennett (2008) claimed: “In technology, as in art, the probing craftsman does more than encounter mess; he or she creates it as a means of understanding working procedures.” Teletext, as well as PETSCII, become arousing tools that awaken the challenge between craft and technology. The future is not obsolete.
Brutalism
As Yuill (2004) wrote:
Brutalism, more properly known as New Brutalism” in its heyday, is arguably one of the most unpopular and least understood architectural styles of the 20th Century. It is mostly associated with rough-cast concrete buildings where its name is linked with the beton brut” casting technique used by Le Corbusier.
I claimed that KYBDslöjd is brutality itself. The character set, provided by PETSCII and teletext, is used unadorned and rough cast, like concrete, which connects it to the Brutalist architecture. Both capture the spirit of their time and contradictions, like in the novel High-rise by Ballard (1975): “An architecture designed for war, on the unconscious level if no other.” – an uncontrollable force. A message in an unknown language, which reveals what it is and what it does without adornment. Brutalism has the unfortunate reputation of evoking a raw dystopia, and old technologies, in general, easily become “objects of nostalgia”. But nostalgic, retro, obsolete or limited are rhetoric qualities earned by constant repetition. Barthes (1989) observed: “Rhetoric, grandiose effort of an entire culture to analyze and classify the forms of speech, to render the world of language intelligible.”
But, most of the time, rhetoric is used to persuade rather than to argue. As Muckelbauer (2008) pointed out, “First, because of rhetoric’s traditional concern for persuasion (rather than communication), it has been intimately involved with questions of force rather than questions of signification or meaning.” A supplement where nothing else can be said. Hila Becher declared: “[Brutal architecture] is honest, it is functional, and reflects what it does. That’s why we like it.” KYBDslöjd and Brutalism are alike because their raw aspect and unpretentious honesty are ethical rather than aesthetic. Allison and Peter Smithson claimed that “up to now brutalism has been discussed stylistically, whereas its essence is ethical”. Both quotes appeared in the book This brutal world (Chadwick 2016). Yuill (2004) went even further:
It would be more precise to state that they are machines capable of manipulating binary patterns which simulate aspects of human mathematics. It is in those areas of coding that deal directly with this pattern-making process that we encounter a kind of Brutalism.
The rawness of old technologies made KYBDslöjd a brutal medium.
Typewriter, Cross-Stitch and Mosaic
Typewriter is a reference medium in KYBDslöjd, while cross-stitch and mosaic are media applied from PETSCII and Teletext. “Although pictures have been ‘drawn’ on typewriters for many years in the past, a written pattern for reproducing a picture is something entirely new. They can also be reproduced on many types of computer”, noted Neill (1982) on the program for the Commodore PET micro, written by Nick Higham, which produced a printout of a Prince Charles portrait, included in the book.
I started to work with typewriters with the project Secretary Part I (2014) and Noise My Txt (2016). Both are live ‘type in’ performances that mixed the Commodore 64 and typewriter. I have been using typewriter as an ironic link to the secretary subject. For me the word secretary has more to do with the late medieval English meaning, “person entrusted with a secret”, rather than the “female work-force”, which originated at the end of the nineteenth century, as mentioned by Riddell (1975): “More than taking the drudgery from writing, it has transformed business and created the largest female workforce in history, the monstrous regiment of typists.” The typewriter “was instrumental to the emancipation of women” noted Tullett (2014). Typewriter is the machine of modernity and standardization, the reference media whose development “broke the male hegemony in text production and thus completed our modern trinity of the Real, the Imaginary and the Symbolic”, quoting Kittler (2013).
Cross-stitch refers to counted-thread embroidery and is a medium applied from teletext in KYBDslöjd. A craft that uses the X-shaped stitches in a tiled, raster-like pattern to form a teletext page rather than a picture. It takes KYBDslöjd out of the screen and makes it analog. The example below is a teletext page called Monster Girl (2015) selected for the Museum of Teletext Art (MUTA), broadcast on the Finnish teletext Yle page 805 and at Der Teletext im Ersten / MUTA im ARD Text pages 884–5 (2016).
During the residence at Le Shadok, Strasbourg, in September 2016, I laser cut several text characters from the Commodore 64 character set into acrylic (PMMA) objects. A PETSCII drawing was produced by arranging together the PMMA pieces. The result was a mosaic built off-the-grid, shown at the exhibition Keys of Fury (Les Clefs de la Fureur). Mosaic became a medium applied from PETSCII in KYBDslöjd.
As well as with the mosaic, I made several rubber stamps with some of the Commodore 64 characters. During a workshop I conducted at Campbelltown Arts Centre in March 2017, the participants used the PETSCII stamps to create patterns and designs – another example of applied media in KYBDslöjd.
Lord (2014) noted: “Ancient Greek potters saw the clay bodies of their vessels as surfaces that could be painted initially with geometric patterns, but then increasingly with imaginative narratives.” The geometric patterns included in the Commodore 64 character set do the same. It is how you connect them together in an additive way, where one character follows the other, that builds the imaginary using the grid or off-the-grid canvas.
PETSCII and teletext give redundancy and practice economy in construction, like Arnheim (1971) observed on a child’s drawing that represented a skyscraper:
He has recognized the redundancy of the window pattern and has practiced economy by a shortcut in communication. If his procedure strikes us as amusing, it is because we realize that to display structure to the eyes is the very purpose of a picture. […] In dealing with structure, as is constantly done in the arts, regularity of form is not redundancy. It does not diminish information and thereby diminish order.
The shape of the characters and how they are combined is like crafting, but in the sense of how Greenhalgh points out that the phrase “’the craft’ had (and still retains) the meaning of power and secret knowledge”, as cited by Dormer (1997a). Imagination is shaped into characters, a new language to be learned. Based on what Saussure (1959) said: “Language is a system that has its own arrangement.”
The Language
KYBDslöjd is not only a type in method, but also a system of text characters (signs). It is a language. Saussure (1959) noted: “Language is a system of signs that express ideas, and is therefore comparable to a system of writing, the alphabet of deaf-mutes, symbolic rites, polite formulas, military signals, etc.” Its arrangement uses them as instructions on the grid. “The grid as a controlling principle in the form we know it today still remained to be invented”, noted Müller-Brockmann (2008). The grid is the ethos, the system of order. The character set is the narrative for technical knowledge. Like Rodríguez Carrión (2013) describes:
In the context of the digital medium, craft exploration refers to the circumstance where designers apply specific technical knowledge (skill) in an undetermined and open exploration of form, constrains, and limitations that they establish to guide the form generation that is their unique expression.
It is not arbitrary that part of the character set is based on basic geometrical shapes. As Frutiger (1989) pointed out:
It appears from archaeological evidence that humankind has an innate feeling for geometry. Traces of primary signs of the same form are found in many regions of earth, and it may be assumed that they expressed similar meanings for the most varied races at widely different times. This survey is deliberately restricted to a small number of characteristic figures: the square, triangle, and circle among the closed figures; the cross and arrow among the open ones.
The character set is now the property of everyone, control over it is lost. In the case of Teletext, VBI is on the PAL signal, and in the case of PETSCII, Commodore International, defunct in 1994. As Saussure (1959) noted:
The prescriptions of codes, religious rites, nautical signals, etc., involve only a certain number of individuals simultaneously and then only during a limited period of time; in language, on the contrary, everyone participates at all times, and that is why it is constantly being influenced by all.
It is a straightforward language based on keystrokes. Like in ‘tangram’, you have to use your imagination to assemble the characters. Frutiger (1989) stated:
We form one complete sign from the basic signs of the square, triangle, circle, and cross already mentioned in our considerations. This piling up of the different elements produces such a complex and opaque expression that it can no longer be called a sign, but rather a schema with thousands of possibilities.
It is not a task of management or boredom. On the 50th anniversary of BASIC, in the article Thank you, Basic: Developers remember 50 years of creative coding (The Guardian, 2014), Bellis claimed “It felt like magic, learning a secret code”.
At this point it is important to admit that I am just a mediator, even if I learnt the basics of the (not so) secret code. As Barthes (1977) put it: “In ethnographic societies the responsibility for a narrative is never assumed by a person but by a mediator, shaman or relator whose ‘performance’ – the mastery of the narrative code – may possibly be admired but never his ‘genius’.” I am a KYBDslöjd shaman, a performer who fights the absence of meaning in emerging media technology.
Myopia for the Future
THIS IS A STORY OF THE FUTURE – NOT THE FUTURE OF SPACE SHIPS AND MEN FROM OTHER PLANETS – BUT THE IMMEDIATE FUTURE
Written prologue for Michael Anderson’s film 1984 (1956).
The hypersensitivity to reward in decision-making has been termed by Damasio (2006) as “myopia for the future”. To be “oblivious to the consequences of their actions and guided only by immediate prospects”, argued Bechara et al. (1994). Some political scientists apply this concept to society as the tendency to choose that which rewards us now, regardless of the damage it may cause in the long run. I claim that immediate satisfaction can be applied to technology as well.
We hunt and are hunted by fear in our cellphones. Quoting Steyerl (2012): “Your life condenses into an object in the palm of your hand, ready to be slammed into a wall and still grinning at you, shattered, dictating deadlines, recording, interrupting.” As well as Leader (2016): “People complain of being too attached to their phones and tablets, as if their hands just can’t stop touching them. The hand, symbol of human agency and ownership, is also a part of ourselves that escapes us.” We are trapped between autonomy and self-determination. Fuck the long run! Long live myopia for the future!
We live in a time where modern technology does not seem to challenge us, or as Svendsen (2005) noted: “The problem is that modern technology more and more makes us passive observers and consumers, and less and less active players. This gives us a meaning deficit.” Convenience is king and apathy arises. He also mentioned that
Technology involves the dematerialization of the world, where things disappear into pure functionality. We have long since passed a stage where we could keep track of technology. We scurry along behind, as is perhaps particularly clear in IT, where hardware and software have always become obsolete before most of the users have learned how to use them.
There is no quest for knowledge and imagination, only a new order of speed, escape and passivity.
There is a misconception in regard to old technologies, thanks to media archaeology and Bruce Sterling’s Dead Media Project (1995). They are not “unrealized dead media” or “a recurring pattern of media activity is the use of electronic or technological media to bridge the divide between the living and the dead”, as claimed by Huhtamo and Parikka (2011). They are not zombies to be reanimated or kept stored, they are meant to be used. They are not souvenirs from the past or a nostalgic cliché. As Graburn (1979) pointed out: “Souvenir gift objects can become visual clichés, conforming to the consumer’s popular misconceptions.”
We are now in a future invention nightmare originating from the late 1970s’ computer utopias in California and their propaganda on how computer networks could create order in society shaped by neoliberal wisdom. Simply put, economy is the king. Anything that goes against it must be neutralized (destroyed). Bauman (2007) emphasized that
Progress, once the most extreme manifestation of radical optimism and a promise of universally shared and lasting happiness, has moved all the way to the opposite, dystopian and fatalistic pole of anticipation. […] Instead of great expectations and sweet dreams, ’progress’ evokes an insomnia full of nightmares of ’being left behind’ – of missing the train, or falling out of the window of a fast accelerating vehicle.
When I started to work with old technologies in late 2010, it was clear to me that it was a responsibility, not an aesthetic choice, not a pursuit of self-identity, not an ego trip, not an idle occupation to pass time. It is an unrevealed force, which tests me every time and it has always been there. I just did not know the language, so I learned it. It makes me free and my imagination awakes like an earthquake. There are no constraints, only possibilities. I am free and I get out of the “fast accelerating vehicle”, to quote Bauman.
The distorted and oversimplified vision of freedom does not help either. “If you allow individuals too much freedom you will get anarchy”, All Watched Over by Machines of Loving Grace (2011). But anarchism is not this egoistic primitive concept of doing what you want no matter what, like Ayn Rand’s libertarian vision and rational/ethical egoism that doomed us to the Californian ideology. For an anarchist as Daniel Guerin, as noted by Chomsky (2005) “freedom is not an abstract philosophical concept, but the vital concrete possibility for every human being to bring to full development all the powers, capacities, and talents with which nature has endowed him, and turn them to social account.” Virilio (2012) goes even further:
Speed, the cult of speed, is the propaganda of progress. The problem is that progress has become contaminated with its propaganda. The computer bomb exploded progress in its materiality, its substance in the sense of reality, geopolitics, temporal relationships, rhythm.
It does not matter what we do. We retreat and do not hope for the future. Curtis rubbed salt in the wound with HyperNormalisation (2016):
Even those who thought they were attacking the system, the radicals, the artists, the musicians and the whole counter-culture, actually become part of the trickery. Because they too, are retreated into the make belief world which is why the opposition has no effect and nothing ever changes.
I do not retreat. I am wearing my glasses. I use old and free technologies. I do KYBDslöjd.
Talk Is Cheap
Taken from Bold’s song from the album Speak Out (1988). Bold is a late 1980s’ New York youth crew hardcore band. I was born in 1977, the year of punk, but also as Steyerl (2012) noted: “In 1977, human history reached a turning point. Heroes died, or, more accurately, they disappeared. They were not killed by the foes of heroism, but were transferred to another dimension, dissolved, transformed into ghosts.” The DIY and hardcore scene is part of my background. Photocopies, collage and analog photography, not computers. That is why I have no nostalgia for old technology – I never had it. When people were at home doing data and learning machinery, I was screaming in a basement with my band or lost in a polluted town with a tripod and a 35mm camera on B exposure. In my opinion, the 1980s were wild and the 1990s sober-minded, at least in Spain. I grew up surrounded by Hammer Horror Monsters and “fake advertising spots meant to ridicule real ads and propose alternatives to the consumer society” (Rico 2003). One of the several spots declared: “Use the machine, don’t be the machine.” This idea stuck in my mind and never left. Not only as an anti-capitalist, anti-consumerist and anti-authoritarian message, but as a quest for freedom through knowledge, imagination and creativity (Meyers 2016).
To borrow Cohen’s (1996) terms, “we live in a time of monsters”. But these monsters do not hunt our imagination anymore. “We are all hunters now, or told to be hunters and called or compelled to act as hunters do, on penalty of eviction from hunting, if not (perish the thought!) of relegation to the ranks of the game”, noted Bauman (2007). We are the hunters, the monsters, the zombies. Not the technology. “Your shell is hollow, so am I”, from Under The Surface (Neurosis, Times Of Grace, 1999), roars in my head. There is a void in front of us and we do not want to look inside. We keep avoiding it. At some point, it will eat us once and for all. It is irremediable. My modest social account to stand against it is my artisan imagination and KYBDslöjd. As pointed out by Gordon (2016): “It’s like the famous distinction between art and craft: Art, and wildness, and pushing against the edges, is a male thing. Craft, and control, and polish, is for women.” I will ride and stand along the “male-genius-artist behavior” (Steyerl 2012), wild and free. Fighting with the only weapon I have, my work, even if I fail or burn. I will rise from the ashes because accommodation and domestication are not my place. Type in Beyond the Scrolling Horizon. The Keys of Fury. The disobedience.
Conclusion: What the Hell for?
Quoting the writer (Stalker, 1979), “A man writes because he is tormented, because he doubts. He needs to constantly prove to himself and the others that he’s worth something. And if I know for sure that I’m a genius? Why write then? What the hell for?”
Keys of Fury is an artistic statement about KYBDslöjd, which leaves and transverses the discourse of old technologies as nostalgic–retro–dead media–archive for the future. They are not a souvenir from the past for purely aesthetic amusement. It is brutalist storytelling about technology and keystrokes, where I am merely a narrator who builds imaginary on and off the grid, shaped in text characters raw and unadorned. A type in artisan, a secretary entrusted with a secret code, a brutal language without CRTL-Z I keep learning. A tacit knowledge where there is no immediate satisfaction or gratifying closure. An open-ended form of defiance against the unbearable boredom and simplicity that reassure us behind our screens.
References
All links verified 14.6.2017.
Arnheim, Rudolf. 1971. Entropy and Art: An Essay on Disorder and Order. Berkeley: University of California Press.
Barthes, Roland, 1977. Image, Music, Text. Translated by Stephen Heath. London: Fontana Press, HarperCollins Publishers.
Barthes, Roland, 1989. The Rustle of Language. Translated by Richard Howard. Berkeley, CA: University of California Press.
Bauman, Zygmunt. 2007. Liquid Times: Living in an Age of Uncertainty. Cambridge: Polity Press.
Bechara, Antoine, Antonio R. Damasio, Hanna Damasio, and Steven W. Anderson. 1994. “Insensitivity to Future Consequences Following Damage to Human Prefrontal Cortex.” Cognition 50(1–3): 7–15.
Borzyskowski, George. 2000. “The Hacker Demo Scene and Its Cultural Artifacts.” School of Design, Curtin University of Technology. Accessed January 03, 2017. http://www.scheib.net/play/demos/what/borzyskowski/.
Rodríguez Carrion, Awilda. 2013. “Art of Workmanship in the Digital Age”. In ACSA 101: new constellations, new ecologies: proceedings of the 101st Annual Meeting of the Association of Collegiate Schools of Architecture (ACSA), edited by Ila Berman and Edward Mitchell. Washington, D.C.: ACSA Press.
Chadwick, Peter. 2016. This Brutal World. London: Phaidon Press.
Chomsky, Noam, and Barry Pateman (ed.). 2005. Chomsky on Anarchism. Oakland, CA: AK Press.
Cohen, Jeffrey Jerome. 1996. Monster Theory: Reading Culture. Minnesota: University of Minnesota Press.
Conrads, Ulrich. 1970. Programs and Manifestoes on 20th-Century Architecture. Cambridge, MA: MIT Press.
Cox, Geoff. 2010. Antithesis: The Dialectics of Software Art. Digital Aesthetics Research Centre.
Crespo, Borja. 2015. Usted no es una persona normal. Granada: Libros de Autoengaño.
Curtis, Adam. 2016. HyperNormalisation. Documentary film. BBC.
Damasio, Antonio R. 2006. Descartes’ Error: Emotion, Reason and the Human Brain. London: Vintage.
Dormer, Peter. 1997a. “The Salon de Refuse?” In The Culture of Craft: Status and Future, edited by Peter Dormer. Manchester: Manchester University Press, pp. 2–16.
Dormer, Peter. 1997b. “Craft and the Turing Test for Practical Thinking.” In The Culture of Craft: Status and Future, edited by Peter Dormer. Manchester: Manchester University Press, pp. 137–58.
Frutiger, Adrian. 1989. Signs and Symbols: Their Design and Meaning. New York: Van Nostrand Reinhold.
Graburn, Nelson H. H. 1979. Ethnic and Tourist Arts: Cultural Expressions from the Fourth World. Berkeley, CA: University of California.
Graziplene, Leonard R. 2000. Teletext: Its Promise and Demise. Bethlehem, PA: Lehigh University Press.
Gordon, Kim. 2016. Girl in a Band. New York: Dey Street Books.
Hawking, Stephen. 1988. A Brief History of Time: From the Big Bang to Black Holes. Toronto: Bantam Books.
Hoffman, Benjamin B., and Otto Salomon. 1892. The Sloyd System of Wood Working, with a Brief Description of the Eva Rodhe Model Series and a Historical Sketch of the Growth of the Manual Training Idea. New York: American Book Company.
Huhtamo, Erkki, and Jussi Parikka. 2011. Media Archaeology: Approaches, Applications, and Implications. Berkeley, CA: University of California Press.
Lord, Barry. 2014. Art & Energy: How Culture Changes. Arlington, VA: American Alliance of Museums.
Manovich, Lev. 2010. The Language of New Media. Cambridge, MA: MIT Press.
Mersch, Dieter, and Laura Radosh. 2015. Epistemologies of Aesthetics. Zurich: Diaphanes.
Meyers, Raquel. 2016. “Is It Just Text?” In Teletext in Europe: From the Analog to the Digital Era, edited by Moe Hallvard and Hilde Van Den Bulck. Göteborg: Nordicom, pp. 31–49.
Muckelbauer, John. 2008. The Future of Invention: Rhetoric, Postmodernism, and the Problem of Change. Albany, NY: State University of New York Press.
Müller-Brockmann, Josef. 2008. Grid Systems in Graphic Design: A Visual Communication Manual for Graphic Designers, Typographers and Three Dimensional Designers. Zurich: Verlag Niggli.
Neill, Bob. 1982. Bob Neill’s Book of Typewriter Art (with Special Computer Programme). Goudhurst: Weavers Press.
Rico, Lolo. 2003. El libro de La bola de cristal”. Barcelona: Plaza & Janés Editores.
Riddell, Alan. 1975. Typewriter Art. London: London Magazine Editions.
Saper, Craig (ed.). 2009. A Socio-Poetics of (Type)Writing. Florida: University of Central Florida Art Gallery. Exhibition catalogue, accessed January 03, 2017. http://www.readies.org/typebound/sociopoetics.pdf.
Saussure, Ferdinand de. 1959. Course in General Linguistics. New York: Philosophical Library.
Sennett, Richard. 2008. The Craftsman. New Haven: Yale University Press.
Steyerl, Hito. 2012. The Wretched of the Screen. Berlin: Sternberg Press.
Svendsen, Lars. 2005. A Philosophy of Boredom. London: Reaktion Books.
Tullett, Barrie. 2014. Typewriter Art: A Modern Anthology. London: Laurence King.
Virilio, Paul, and Bertrand Richard. 2012. The Administration of Fear. Los Angeles, CA: Semiotext(e).
Yuill, Simon. 2014. ”Code ArtBrutalism”. In Read_me: software & art cultures, edited by Olga Goriunova and Alexei Shulgin. Århus, Denmark: Digital Aesthetics Research Centre, University of Aarhus.
Commodoren VIC-20 oli 1980-luvun alun “mikrokuumeen” ensimmäisiä myyntimenestyksiä Suomessa. Vuonna 1981 Euroopassa julkaistu edullinen ja verrattain edistynyt laite toi tietokoneet tavallisen kuluttajankin ulottuville. Pelaaminen ja BASIC-ohjelmointi olivat varhaisten kotitietokoneiden tyypillisiä, mutta eivät suinkaan ainoita käyttökohteita. Tässä artikkelissa esittelemme Reima Mäkisen ja Riitta Uusitalon sarjakuvan “Rock, joka tiesi liikaa”, jonka Mäkinen toteutti VIC-20:llä Sarjari-lehteen vuonna 1983. Ympyrä sulkeutui vuonna 2016, kun teimme Rockista jälleen lähes alkuperäisellä laitteella toimivan version.
Tässä katsauksessa käsitellään vuonna 1983 Sarjari-lehden rock-aiheisessa numerossa 9 ilmestynyttä yhden sivun sarjakuvaa Rock, joka tiesi liikaa[1]. Tästä eteenpäin viittaamme siihen lyhyemmin vain niemellä Rock. Vuonna 1983 julkaistu Rock on suurella todennäköisyydellä ensimmäinen suomalainen tietokoneella tehty ja painotuotteena julkisessa levityksessä ollut sarjakuva. Tällainen sarjakuva oli harvinaisuus maailmanlaajuisestikin: esimerkiksi Shatter, Apple Macintoshilla piirretty pitempi sarjakuvalehti on vuodelta 1985 (Booker 2014, 954). Sarjakuva ei kuulunut varhaisen tietokonetaiteenkaan piiriin – Rockiin läheisesti liittyvästä tekstitaiteesta tosin löytyy esimerkkejä jo ainakin 1960-luvulta (Franke 1971).
Kohtasimme omalaatuisesta vuohesta kertovan sarjakuvan Skrolli-lehden verkkoartikkelissa, jossa käsiteltiin varhaista Micropost-harrastajalehteä (Kauppinen 2014). Tässä yhteydessä tuotiin esille lehden tekijän sarjakuva, jonka tunnistimme heti Commodoren perusmerkistöllä tehdyksi. Sarjakuva mainittiin ensimmäiseksi laatuaan Suomessa, mutta Micropostiin keskittyvässä artikkelissa aiheeseen ei kuitenkaan pureuduttu sen tarkemmin. Kiinnostuksemme Rockia kohtaan heräsi, ja otimme yhteyttä alkuperäisiin tekijöihin, Reima Mäkiseen ja Riitta Uusitaloon, saadaksemme kuulla lisää sarjakuvan syntyhistoriasta. Pelkästään paperilla ja huonolaatuisena digitaalisena kuvana nähty teos innoitti meidät myös “tuomaan Rockin takaisin kotiin”, ja teimme siitä vuorovaikutteisen sovelluksen, jonka avulla vuohen seikkailuja voi jälleen lukea alkuperäisellä laitteistolla.
Mahdollisen esikoisasemansa lisäksi Rockin tekee kiintoisaksi sekin, että sarjakuva on julkaistu aikana, jolloin tietokoneharrastus oli vielä lapsenkengissään. Tietoverkot olivat tekstimuotoisia ja harvojen käytössä, eikä demoskeneäkään vielä ollut; kotinurkissa tehdyt luovat tuotokset myös todennäköisesti jäivät sinne, jos niitä edes tallennettiin. Viihteellisemmät tietokonejulkaisut, kuten Printti ja MikroBitti, aloittivat vasta seuraavana vuonna. Nämäkin lehdet julkaisivat lukijoilta lähinnä ohjelmalistauksia, ja lehtien sarjakuvat sekä oheiskuvitus olivat perinteisillä välineillä tehtyjä. Jo aiemmin aloittaneet Tietokone– ja Prosessori-lehdet olivat taas luonteeltaan pikemminkin vakavia, ammattilaisille suunnattuja julkaisuja.
Rock tehtiin aikanaan Commodoren VIC-20-tietokoneella, joten käsittelemme aluksi sen asemaa Suomessa sekä niitä teknisiä puitteita, joissa teos syntyi. Seuraavaksi päästämme itse tekijät ääneen ja annamme heidän kertoa omia muistojaan 1980-luvulta tietokonesarjakuvan tekemisestä. Lopuksi esittelemme oman Rock-versiomme tekoprosessia sekä sen aikana syntyneitä havaintoja.
Veni, Vidi, Vic!
Vuonna 1983 kotitietokone alkoi olla pienoinen hittituote Suomessakin. 1980 Amerikassa ja 1981 Euroopassa julkaistu VIC-20 oli tarjolla koko kansan koneeksi ennen Commodore 64:n valtakautta, ja Prosessori 4/1982 julistikin VIC-20:n olevan “ensimmäinen kunnon kotitietokone”. Kahden TV-kanavan Suomessa eläneet saattavat muistaa laitteen mainoksesta, jossa toogaan pukeutunut näyttelijä Kauko Helovirta hypisteli laitetta innostuneena. Kertojaääni hehkutti VIC:n olevan “jokamiehen tietokone, jolla voit rakentaa vaikka Rooman”.
Suomalaisen tietokoneharrastuksen historiaa tutkineen Petri Saarikosken mukaan Commodore saavutti VIC-20:n myötä täällä vahvan aseman, paitsi aggressiivisen hinnoittelunsa (alle 2000 markkaa), myös näkyvien mainostensa siivittämänä. Vuonna 1982 se oli jo täkäläisten harrastajien parissa yleisin konemalli, ja suosiota jatkoi luontevasti Commodore 64, josta tuli Suomenkin markkinoilla suuri myyntimenestys. Commodoren laitteita edusti vaasalainen PCI-data, joka oli vastuussa myös paikallisesta markkinoinnista. (Saarikoski 2004, 101–7)
Todellisuus ei ollut aivan yhtä ruusuinen kuin mainoksissa nähty: laajentamattomassa laitteessa muistia on vain 5,5 kilotavua, joten harrastajien täytyi tavallisesti tyytyä sisäänrakennettuun merkkigrafiikkaan, joko suoraan näppäimistöltä syöttämällä tai sisäänrakennetun BASIC-tulkin PRINT-käskyjen avulla. Rajoittuneisuudestaan huolimatta merkkigrafiikka oli 1980-luvun mikroharrastajalle kuitenkin yllättävän joustava tie luovaan tekstin ja grafiikan yhdistämiseen; seikka, josta on tullut uudestaan kiinnostavaa lähestymistavan paljolti kadottua nykytietotekniikasta (esim. Montfort ym. 2012). 256 symbolia sisältävästä PETSCII-merkistöstä löytyy esimerkiksi pyöristyksiä ja viivayhdistelmiä, joiden tuottaminen muilla keinoin olisi ollut paljon työläämpää.
VIC-20 edustaa kotitietokoneiden ensimmäistä loppukäyttäjille suunnattua, tuotteistettua sukupolvea, jonka myötä käyttäjäkunta laajeni teknisesti taitavien harrastajien ulkopuolelle (vrt. Haddon 1988; Saarikoski 2004, 78–94). Siinä missä 1970-luvun ensimmäiset kotimikrot toimitettiin rakennussarjoina, myytiin uudemmat tulokkaat jo valmiina paketteina, jotka maallikkokin kykeni kytkemään kodin televisioon. 1,1 megahertsillä, 22×23 merkin grafiikkatilalla[2], 16 värillä, neljällä yksinkertaisella äänikanavalla ja BASIC-tulkilla varustettu laite oli aikalaisiinsa verrattuna tasavertainen ja joissakin suhteissa jopa poikkeuksellisen edistynyt. VIC-20:n varhaisvaiheista ovat kirjoittaneet tarkemmin esim. Bagnall (2005, 157–223) ja Vernoni (2017).
Rockin synty
1980-luvulla kotimaiset tekijät saivat sarjakuviaan näkyville Sarjarin kaltaisten, useimmiten mustavalkoisten julkaisujen kautta. Tampereen Sarjakuvaseuran vuodesta 1981 alkaen julkaisema Sarjari noudattaa aikanaan yleisten Zoom– ja Non Stop -tyyppisten lehtien muotoa, mutta se keskittyy suomalaiseen sarjakuvaan. Sarjarin sisältö on ollut perinteisesti taide- ja undergroundpainotteista, huumoria unohtamatta. Erääksi lehden erityispiirteeksi muotoutui se, että numeroilla on jokin tietty teema, kuten numeron 9 “rock”. Päätoimittajana oli aluksi Ari Kutila, sittemmin mm. Kapteeni Kuolio -sarjakuvasta tunnettu Pekka A. Manninen. Uusitalon ja Mäkisen tahoillaan tekemiä muitakin sarjakuvia on julkaistu useissa lehden numeroissa.
Pääosin tietokoneella luotu Rock erottuu ainakin jälkikäteen katsottuna ulkoasunsa ja tekotapansa puolesta. Lehden numerossa ei kuitenkaan esitelty tietokonesarjakuvaa poikkeuksena tai merkittävänä uutuutena. Eräässä toisesssa numerossa (numero 21, “Herttasarjari” vuodelta 1988) on ollut Sarjarin arkistosivuston mukaan tietokoneella tehty kansi, jonka tekotavan tosin huomaa lähinnä viivajäljestä. Rockissa käytetty merkkigrafiikka sen sijaan tekee siitä selkeästi tietokonesarjakuvan.
Ajatus sarjakuvaan on kummunnut Sarjarin teemanumeron aiheesta, johon Mäkinen ja Uusitalo yrittivät sovittaa ideoita. Mäkinen viittaa Uusitalon paperille piirtämään luonnokseen (kuva 1):
Riitta oli jo tuolloin kiinnostunut kavioeläimistä ja hän sitten päätti soveltaa hyllystä tai kirjastosta poimitun kirjan tekstiä. Luonnos paljastaa että tarkoitus oli todellakin tehdä sarjakuva eikä vain kokeilla jotain epämääräistä. Mulla oli tuossa vaiheessa ollut se kone vissiin vuoden verran ja olin jo kaikenlaista saanut sillä aikaan. Minä leikkasin ja liimasin ja levitin peitelakkaa. (RM 9.2.2017)
Mäkinen muistelee kokoonpanon olleen laajentamaton VIC-20, mustavalkoinen 14 tuuman matkatelevisio ja Commodoren VIC-1525-matriisikirjoitin (ks. Vernoni 2017, 68–75). Jokainen yksittäinen sarjakuvaruutu tai leveämmän ruudun puolikas valmisteltiin BASIC-kielisenä ohjelmalistauksena, jonka päätteeksi tulostus tehtiin antamalla käsky “RUN5000”, joka on myös tulostunut mukaan kuvaan. Käskyt on häivytetty sarjakuvaruuduista peitelakalla. Tulostetut ruudut koottiin ja liimattiin A4-paperille (kuva 2).
Koska kuva rakennettiin ohjelmalistaukseen PRINT-käskyillä, ei lopputulosta ollut mahdollista nähdä kokonaisena ennen ohjelman ajoa. Toisin kuin monet nykyiset merkkigraafikot, Mäkinen ei siis kirjoittanut kuvaa ruudulle suoraan. Lähestymistapa toi mukanaan myös muita rajoituksia, kuten sen, ettei ruudun alinta riviä voinut käyttää. Tulostusaliohjelman ajokäskylle piti myös löytyä riittävästi tyhjää tilaa itse kuvan sisältä (kuvassa 2 puhekuplan puolikkaiden alapuolella).
Tulostusvaihe on venyttänyt kuvasuhdetta pystysuunnassa – VIC-20:n näytöllä merkit ovat luonnostaan varsin litteitä. Tietokoneen merkeissä on 8×8 pikseliä, kun taas Commodoren tulostin käyttää omaa 6×7 pisteen kirjasintaan, mistä seurasi lisää eroavaisuuksia kuvaruudun ja paperitulosteen välille (kuva 3). Matriisikirjoittimen hieman suttuiset pisteet pehmensivät kuvaa omalla tavallaan, ja Mäkinen toteaakin lopputuloksen näyttävän “enemmän analogiselta kuin digitaaliselta” (RM 9.2.2017). Kaiken lisäksi jyrkän mustavalkoinen painatus Sarjarissa on kärjistänyt kontrastia ja tulostusvaiheen tuomia yksityiskohtia. Rockin matka luonnoksesta lehden sivuille on siis käynyt monen muutosvaiheen läpi, joista jokainen on tuonut oman sävynsä lopulliseen julkaistuun sarjakuvaan.
Luonnoksen piirtämisen jälkeen seuranneet tekniset työvaiheet Mäkinen on tehnyt käytännössä yksin VIC-20:llä; Uusitalo ei kertomansa mukaan ollut kiinnostunut tietokoneista eikä mielestään edes koskenut laitteeseen (RU 9.2.2017). Molemmilla tekijöillä on muistoja ajan asenteista tietokoneita kohtaan sekä kotona että taidemaailmassa.
Yleisesti ottaen ihmiset oli aivan pihalla siitä mikä kotitietokone on ja mitä sillä voi ja ei voi tehdä. Esim. mummoni ei millään tajunnut mitä mä teen vaikka yritin kuinka selittää ja se näki kun mä istuin koneen kanssa olkkarissa tv:n edessä ja naputin. No, toisaalta kaverin isä kyllä ohjelmoi… Mutta yleisesti ottaen se oli vain laite, joka ulkopuolisista näytti mystisesti tai hypnoottisesti vievän käyttäjänsä huomion. (RM 9.2.2017)
Mäkinen muistelee Dimensio-ryhmän tietokonetaiteen näyttelyn Taidehallissa 1982 olleen yksi mahdollinen kimmoke tietokonesarjakuvan tekoon. Näyttely osoittaakin, ettei elektroninen taide ollut suomessa tuolloin aivan vierasta. Silti Uusitalosta tuntui ettei tietokonetta oltu vielä omaksuttu välineenä:
Kuvaavaa tuosta ajasta on taas esimerkiksi Jyrki Siukosen näyttely Helsingissä. Jyrki faksasi näyttelyyn yhden teoksen joka päivä. Taidegraafikko Heta Norros rupesi käyttämään kopiokonetta töidensä monistamiseen. Faksi ja kopiokone tuntuivat nerokkailta keksinnöiltä. Tietokone oli liian uutta. Kynällä ja paperilla saa kuvan tehtyä niin nopeasti. (RU 9.2.2017)
Uusitalolle Rock jäi yksittäiseksi aikansa kokeiluksi, ja myöhemminkin hän on suosinut perinteisiä työtapoja tietokoneen sijasta (RU 7.2.2017). Mäkinen sen sijaan teki VIC:llä ahkerasti muitakin kokeiluja, kuten omia pelejä, grafiikkaa ja animaatiota, vaikkakaan ei enää muita sarjakuvia. Hän kertoo kuluttaneensa päivittäin kymmenestä kahteentoista tuntia tietokoneen äärellä, mistä kärsi jo koulunkäyntikin. Opinnäytetyönsä Kankaanpään taidekouluun Mäkinen teki senkin VIC:llä. (RM 9.2.2017)
Rock palaa kotiin
Saatuamme sarjakuvan käsiimme päättelimme merkeistä ja ruutujen mittasuhteista nopeasti, että Rock on tehty juuri VIC:llä eikä esimerkiksi Commodore 64:llä. Yhteen sarjakuvaruutuun on käytetty 22×22 merkkiä, ja viivojen ohuus muistuttaa PETSCII-kirjasimen ensimmäistä versiota, joka oli käytössä jo PET-sarjan tietokoneissa (ks. Montfort ym. 2012, 221–25). Tämän oivalluksen jälkeen halusimme kokeilla, miltä tuntuisi palauttaa sarjakuva siihen ympäristöön, jossa se on luotu, ja nähdä sarjakuvaruudut tietokoneen näytöllä ikään kuin tekijän perspektiivistä.
Uusioversiota tehdessä pyrimme selvittämään, mitkä merkit ovat olleet käytössä, emmekä niinkään jäljittelemään painatusjäljen ulkoasua; kokonsa vuoksi sarjakuvaa ei voisi muutenkaan esittää VIC-20:n näytöllä kerralla. Emme myöskään halunneet, että sarjakuvaa näytettäisiin ainoastaan ruutu ruudulta, joten sivua voi vierittää nuolinäppäimillä. Teimme pieniä sijoittelumuutoksia, että teksti olisi luettavampi näytöltä – alkuperäisten ruutujen reunat eivät osuneet joka kohdassa toisiinsa. Hahmoissa ja taustoissa käytetyt merkit on sen sijaan toisinnettu mahdollisimman uskollisesti. Lehtiversiossa on lisäksi joitakin kynällä täydennettyjä kohtia: esimerkiksi aakkosista puuttuvien Ä:n ja Ö:n pisteet on siinä lisätty jälkeenpäin. Uusioversioon tehtiin tätä varten lopuksi erikoismerkit, joissa pisteet ovat paikallaan (ks. kuva 4).
Tämän päivän VIC-20-ohjelmoijan ei tarvitse suinkaan enää näppäillä ohjelmakoodiaan aidolla laitteella esimerkiksi konekielimonitoria käyttäen, vaan saatavilla on lukuisia tekemistä helpottavia ristiinkehitystyökaluja, joiden avulla modernit tietokoneet voidaan valjastaa VIC-tuotantojen tarpeisiin. Ehdottomasti tärkein näistä on emulaattori, tässä tapauksessa VICE (Versatile Commodore Emulator), joka mahdollistaa oikean koneen ohjelmien ajamisen ja nopean testaamisen esimerkiksi PC-yhteensopivilla laitteilla. Emulaattorien käytössä on yleisesti ottaen omat rajoitteensa ja haasteensa (Newman 2012, 140–49), mutta tässä tapauksissa niillä ei ollut merkitystä, koska VICE toimi pikemminkin työkaluna kuin esitysalustana.
Itse ohjelma on puhdasta C-kieltä – edes tehokkaan konekielen käyttöön ei ollut tarvetta näin yksinkertaisessa sovelluksessa. Ohjelmakoodi kirjoitettiin tavanomaisella tekstieditorilla, minkä jälkeen se käännettiin konekieliseksi ohjelmaksi vapaalla cc65-ristiinkääntäjällä, edelleen poistumatta tehokkaan PC:n huomasta. Valmista prg-tiedostoa[3] oli vaivaton testata VICE:lla koko työprosessin läpi, kunnes aivan lopuksi varmistimme vielä toimivuuden aidollakin laitteella.
Muita tärkeitä työkaluja olivat jo edellä mainittu omatekoinen PETSCII-editori, jolla pystyy luomaan nykytietokoneilla Commodoren koneille tekstigrafiikkaa hiirellä piirtämällä (Reunanen 2013), sekä taustamusiikin säveltämiseen käytetty Fisichella. Aleksi Eebenin ohjelmoima, VIC:llä toimiva Fisichella on niin ikään suomalaista tekoa, joten kotimaisuusaste säilyi näinkin korkeana. Itse sävellystyön teki monella retrolaitteella kunnostautunut Yrjö “Yzi” Fager.
Koko sarjakuva ei olisi mitenkään mahtunut kerralla VIC-20:n pieneen muistiin, ja kun halusimme mukaan myös taustamusiikin, niin laitteistovaatimuksia täytyi jonkin verran korottaa. Lopullinen uusio-Rock (kuva 5) vaatii siten 16 kilotavun muistilaajennuksen. Eräs vaihtoehto olisi ollut ladata ruutuja yksi kerrallaan sarjakuvaa luettaessa, mikä olisi kuitenkin aiheuttanut katkoja lukukokemukseen. Vaikka tämän päätöksen myötä menetettiinkin ripaus “aitoutta”, niin samalla voidaan kysyä, paljonko sitä muutenkaan oli 2000-luvulla tehdyssä, täysin ristiinkehitetyssä VIC-ohjelmassa.
Lopuksi
Rock-sarjakuvan rekonstruktio vuonna 2016 oli lähestymistavaltaan ja kokemuksena varsin toisenlainen kuin mistä Reima Mäkinen ja Riitta Uusitalo kertovat. Ensinnäkin tietokone ja Internet ovat nykyään hyvin yleinen kanava sarjakuvien piirtämiselle ja levittämiselle. Tietokoneella tehdyn sarjakuvan Graalin maljana oli pitkään perinteisen piirrostekniikan vaatiman tarkkuuden saavuttaminen, ja tässä vertailussa Rock on vaikuttanut aikanaan vielä kömpelöltä, joskin samalla omaleimaiselta. Nykyään merkkigrafiikan käyttö on pikemminkin tyylillinen tai taiteellinen valinta, eikä saatavilla olevan tekniikan mukanaan tuoma reunaehto.
Uusio-Rock toimi ankkurina ja vertailupisteenä niille kysymyksille, joita halusimme esittää alkuperäisen sarjakuvan tekijöille. Rekonstruktiossa emme tavoitelleet alkuperäistä tekemisen tapaa, vaan hyödynsimme nykyajan tietokoneita sekä ohjelmia kehitysympäristönä, ja varsinaisen VIC-20:n käyttö jäi melko vähäiseksi. Paperin kanssa olimme tekemisissä oikeastaan vain vertaillessamme uusioversion merkkejä painotuotteeseen. Samanlaisen lopputuloksen tuottaminen kahdella täysin erilaisella tavalla – BASIC-lauseita kirjoittamalla tai modernien mukavien työkalujen avulla – korostaa pikemminkin ohjelmistojen kuin laitteiden merkitystä digitaalisen median tuotannoissa.
Sekä Mäkinen että Uusitalo ovat molemmat edelleen aktiivisia kotimaisessa sarjakuvaskenessä. Monet aikalaisharrastajat siirtyivät myöhemmin Commodoren kehittyneempiin laitteisiin, kuten C-64:ään tai Amigaan, mutta Mäkisen seuraava tietokone oli vasta 1990-luvun alussa hankittu IBM PC -yhteensopiva, joka oli jo pikemminkin työ- kuin harrastusväline. Riitta Uusitalo puolestaan kertoo tekevänsä tietokoneella edelleen vain pakolliset asiat.
Bagnall, Brian. 2005. On the Edge: The Spectacular Rise and Fall of Commodore. Winnipeg: Variant Press.
Booker, M. Keith (toim.). 2014. Comics Through Time: A History of Icons, Idols, and Ideas. Santa Barbara, CA: Greenwood.
Franke, Herbert W. 1971. Computer Graphics – Computer Art. Lontoo: Phaidon Press.
Haddon, Leslie. 1988. “The Home Computer: The Making of a Consumer Electronic.” Science as Culture 1(2):7–51.
Montfort, Nick, Patsy Baudoin, John Bell, Ian Bogost, Jeremy Douglass, Mark C. Marino, Michael Mateas, Casey Reas, Mark Sample ja Noah Vawter. 2012. 10 PRINT CHR$(205.5 + RND(1)); : GOTO 10. Cambridge, MA: MIT Press.
Newman, James. 2012. Best Before: Videogames, Supersession and Obsolescence. Abingdon: Routledge.
Saarikoski, Petri. 2004. Koneen lumo: Mikrotietokoneharrastus Suomessa 1970-luvulta 1990-luvun puoliväliin. Nykykulttuurin tutkimuskeskuksen julkaisuja 83. Jyväskylä: Jyväskylän yliopisto.
Vernoni, Giacomo M. 2017. Commodore VIC 20: A Visual History. Omakustanne.
Viitteet
[1] Itse sarjakuvassa nimi on isoilla kirjaimilla muodossa “ROCK JOKA TIESI… LIIKAA!”.
[2] Ohjelmointikikoilla saa näytölle helposti mahdutettua paljon enemmänkin merkkejä: 22×23 on vakiotila, johon laite käynnistyy.
[3] Commodoren 8-bittisten tietokoneiden ohjelmien yleisesti käytetty tarkenne, kuten exe Windows-ympäristössä.
It is relatively seldom that the contemporary computer user comes across text mode graphics. Apart from occasional frames and boxes in a Linux shell, it would most likely be an “infofile” from a pirate group with which a user would be confronted. In recent years, though, the aesthetic of text mode art has experienced a rebirth: one can buy ASCII logos printed on t-shirts, ANSI art gets featured on album covers, and some of the most proficient artists from the 1990s are making impressive comebacks. Yet all this mostly takes place outside text mode graphics’ natural habitat: the screen of a text-only operating system.
The history of character-based art is much older than that of the home computer[1]. However, one of the most influential and prolific breeding grounds of text mode art in North America and Europe has been the array of home computer subcultures that is known under the umbrella term of the “scene”, a term usually employed by the subcultures themselves[2]. The “scene” has its root in “cracking” proprietary software’s copy protection and circulating such “cracked” programs in the 1980s and early 1990s – an activity that found its form in a distinct subculture (often referred to as the “warez scene” in the US-American context) with own rituals and value systems, and later on gave birth to creative digital subcultures such as the demoscene or the music tracking scene[3]. Characteristics that unite these cultures, apart from their historical roots in the heyday of home computing, are their forms of socialisation (individuals taking on pseudonyms and banding together in groups that compete with each other in a particular field of computer activity), their approach to proprietary data authorship and ownership (the concept of cracked or self-programmed software constituting a “release” that is not to be altered and re-appropriated by other scene members) (Vuorinen 2007), their attachment to particular computer platforms (Reunanen and Silvast 2009), and last but not least, their affinity for artistic text mode graphics which they used for the digital “packaging” of their output as well as for the design of their pre-WWW communication channels. It is in this context that text mode art could gain traction and seep into ordinary users’ everyday encounters with their machines.
The aim of this short piece is to take a brief look at the history of text mode art as it developed within the scene. Text mode art has attracted only little attention from historical research, and even less when it comes to its history within the scene. Apart from brief mentions in standard works on demosene history (Botz 2011, 345–47; Polgár 2005, 121–22), a short general history has been presented by Anders Carlsson and A. Bill Miller (Carlsson and Miller 2012), while the text mode art scenes on the PC and the Amiga respectively have been dealt with in the qualification theses by Michael Hargadon and Heikki Lotvonen (Hargadon 2010; Lotvonen 2015). While Lotvonen roots the history of the art form in the subculture only very briefly and puts his focus on the aesthetics of ASCII art, Hargadon delivers an in-depth analysis of both the technical preconditions of PC ANSI art and its rootedness in subcultural practices, focusing his analysis on the early- to mid-1990s PC warez scene in North America. Hargadon’s research was recently taken up by Kevin Driscoll, who embedded ANSI art into the history of the North American culture of Bulletin Board Systems (BBS), the latter being a pre-WWW medium of communication and file exchange based on data transfer through telephone landlines and operating through text mode interfaces (Driscoll 2014, 191ff).
My perspective is a twofold one: on the one hand, of a historian working on a global social history of software piracy in the early days of home computing; on the other hand, of someone who had followed the developments of text mode art in the scene as a participant/observer for nearly two decades. The second perspective is not employed merely to delve into nostalgia, but is a necessity given the problematic archival situation of digital subcultures, especially concerning the history of BBS culture: While the files exchanged through the systems are often archived, the BBSs themselves, in terms of their functionality, outlook and textual content, are usually not (Driscoll 2014, 22–24).
The present thematic issue provides an opportunity to embed Hargadon’s findings into a multi-platform history of the scene, and to bring up a few general points regarding the history of scene text mode art which will hopefully stimulate further discussion and pave the way for further research in this area. Leaving aside the embedding of text mode art into art history and/or the history of aesthetics, and instead taking a perspective of media and social history, the points to be raised here concern the technological determinism behind the rise and fall of scene text mode art and, even more importantly, the internal subcultural dynamics that profoundly shaped the development and usage of text mode art within the honour and barter economies of the scene (cf. Rehn 2004).
The arguments I will make are limited not only in terms of geography[4], with the subcultures in question developing in Europe and the US, but also in terms of the hardware concerned. While certain forms of text mode graphics existed on virtually all home computer platforms that were relevant for the early scene’s development, it is on three of them where one can observe elaborate subcultural practices based on text mode creativity: the Commodore 64 (C64), the Commodore Amiga, and the IBM PC. While scene graphics using the C64 character set (PETSCII) have already received their own treatment[5], I will focus on the traditions and developments on the latter two platforms, since text mode art on both of them a) developed under similar circumstances in terms of communicational infrastructure, and b) share the same standard (ASCII/ANSI) with a high degree of inter-platform compatibility (despite peculiarities in the respective system fonts).
To explain the technicalities of text mode character sets on both platforms would exceed the frame of this paper, but a few introductory remarks are necessary. Both platforms shared the ASCII standard, featuring letters, numbers, punctuation marks, and a limited set of special characters. Also, both platforms supported ANSI escape codes, making it possible to choose 16 different colours for the characters and their background. The default character set of the IBM PC, however, known as “code page 437”, additionally featured a number of line and block characters (Driscoll 2014, 191–96).
This had implications for the range of possibilities for using these character sets for drawing. While the additional “high-ASCII” characters of the PC, particularly the “blocks”, allowed for figurative “drawing” focused on form-filling and shading (Fig. 1 and 2),[6] the limited ASCII character set of the Amiga did not provide such possibilities, leading artists to focus mostly on logo-type graphics based on outlines, not unlike graffiti “throw-ups” (Fig. 3). Drawing ASCII on Amiga, however, also had its advantages since Topaz, the standard Amiga font, had much more narrow spacing than the default MS-DOS font – thus, one could form almost seamless lines using slashes, backslashes and underscores.
Another consequence of the different character sets was the way text mode graphics were created. Since Amiga text mode artists used merely characters that were accessible through the keyboard, they did not need special software for creating their artworks and could use simple text editors. Text mode artists on the PC, however, could not access the “high-ASCII” characters by just pressing one keyboard key. This caused the rise of ANSI drawing programs for MS-DOS, with which artists could not only use different block characters via the function keys, but also assign fore- and background colours to characters.
Text Mode Art and the Scene Economy
The first point to be made about scene text mode art is that despite its seemingly self-evident aesthetic genealogies, it developed “organically” and independently, without any continuity from earlier forms of text mode art. The development of text mode art on both Amiga and PC is bound to the practices of data exchange and social bonding over modem-facilitated connections – this thesis, convincingly worked out by Hargadon for the PC scene, is in fact true for both platforms. Up to the late 1980s, when the predominant means of data transfer within the scene was via floppy disks through the post, text mode art played only a peripheral role in the scene’s communication. While on the C64, PETSCII graphics were used to design disk directories, there was no technical necessity to employ text mode graphics on the Amiga or the PC. Moreover, in the C64 as well as the early Amiga scene, most of the scene’s artistic self-expression, apart from the actual coded productions, happened through “old” media. The age of “mailswapping” was a flourishing period for paper art, with skilfully designed disk sleeves, letterheads and paper magazines.[7] However, when BBS became the scene’s standard medium for both communication and data exchange, artists were restricted to the limited set of characters transmittable over modem.[8] Thus, text mode graphics found their natural habitat.
Character-based graphics proved useful and meaningful to several actor groups within the BBS-based warez scene. On the one hand, it was the system operators (sysops) of “elite” BBSs who created the demand for text mode artworks – an argument which Hargadon developed for the case of the PC underground, but which holds true for the Amiga scene as well. The standard design of BBS software was simple and dull; to give their “boards” (as scene participants casually called BBSs) an individual look and let them stand out against countless competitors, sysops needed individually crafted design for their BBSs – and text mode graphics were the only technically feasible way to achieve this (Hargadon 2010, 128–34; Driscoll 2014, 191–97).
On the other hand, those users who supplied the BBS file areas with “releases” used text mode graphics for their own ends. Given the nature of BBS file listing, ASCII graphics were a way to make one’s uploads stand out (Fig. 4).
Additionally, “trading” data through landlines was a cumbersome and slow process. As first-generation Amiga ASCII artist and cracking scene protagonist Rotox recalled in an interview, he “started doing ascii […] to pass the time while trading releases to boards because at the time you didn’t really have much else to do other than watch a ZModem progress bar.[9] […] When I was trading a new release I used the time it would take to upload/download to create the file description logo, so the times would vary but usually around 10 minutes.” (Dipswitch 2003)
Through this practice of drawing logos and then pasting them into the “file description” field, file description text mode graphics became a solid part of the “package” around a scene release, alongside the infofile and the filenaming scheme. Just as much as the crack intro (Reunanen, Wasiak, and Botz 2015), this package constituted the act of turning a “digital object into an artefact” (Vuorinen 2007, 29) and converting a commodity of the software market’s monetary economy into the barter economy of the scene.
It is hard to say when exactly text mode art gained its solid place in release packaging in both the PC and Amiga scenes. While cracking groups have often included text files with notes about their releases early on (Garrett 2004, 5–6), the infofile as a regular feature of a release, carrying the .NFO file suffix, was introduced by the US-based PC cracking group The Humble Guys around 1989–1990[10] and soon became a standard feature of releases on the Amiga as well. The FILE_ID.DIZ text file format, introduced around 1993–1994 by the shareware producers’ community (Holler 1994) and serving as a means for program authors to have the description of their programs to be automatically displayed by BBS file lists, was immediately picked up by the scene on both platforms (Polgár 2005, 121). The format’s limitations (45 characters wide, 10 to 15 lines long) posed a special challenge for text mode artists, yet it was a rewarding one: the FILE_ID.DIZ file description was the first thing a BBS user saw of a particular release, even before downloading it. As FILE_ID.DIZ files were displayed automatically by the BBS software right after the upload, this format provided the warez groups with a chance to gain monopoly over how their releases would appear in a BBS file list, denying the uploaders the chance to add their own (possibly critical) comments to the releases. At first glance, this development might seem as a stifling of ASCII artworks, since BBS traders such as the aforementioned Rotox could no longer add their own artworks to their uploads. However, since the release groups used the FILE_ID.DIZ as a kind of trademark, they needed skilled artists to provide them with appropriate logos, thus assigning them a fixed role in the process of creating releases.
A Respected Scene Profession
Through the demand of both sysops and release groups, the creation of text mode graphics within the scene turned from a spare time activity of BBS traders into a self-conscious scene “profession”, along with other scene-internal roles such as cracker, programmer, musician or original supplier. Text mode graphics became a commodity with an ascribed value in the scene’s barter economy, and a means for text mode artists to gain “subcultural capital” within the scene (cf. Thornton 2005). Text mode artists and release groups thus entered into a symbiotic relationship. Groups were interested in having custom-made ASCII art for their releases, since the first visible aspects of a release, its “business card” so to speak, were reduced to text mode: the FILE_ID.DIZ, visible for the BBS user while browsing the filelisting, and the infofile, visible between downloading and executing a cracked program. Text mode artists, on the other hand, could gain fame by groups using their artwork: the more active and well-respected a release group was, the more its releases circulated through the BBS networks, sporting the artists’ logos. The more popular a group’s first “trademark” – the FILE_ID.DIZ logo – became, the more other groups wanted to have logos in the same style, providing the artist with more requests and thus with more credit within the scene’s honour and barter economy. When asked about the ways his group acquired its ASCII art for release-packaging purposes, the leader of Skid Row (one of the most prominent cracking collectives in the early 1990s Amiga scene) described two means of acquisition: either he would request logos from artists he knew and liked, or artists would send logos to him out of respect for his group (Subzero 2016).
Even though text mode artists often fulfilled other roles in the scene, this development meant that individuals proficient in this art form could gain entry into the scene’s inner circles without having any other technical skills, and thus profit from the scene’s social and cultural capital (networks, access to recent software, fame derived from affiliation with a well-known group).[11] For some individuals, drawing text mode artwork was the only feasible entry point into the scene. As a PC ANSI artist recalled, “I had a slower modem and not a lot of time so the only way I could get any download credit was to do ANSI really.“ (Ashes of Gehenna 2016).
The demand within the scene for text mode art is also manifest in the way BBSs developed their own techniques for soliciting text mode art, such as “ANSI Request doors” – BBS add-ons through which users could get in touch with text mode artists and pass them their requests for custom-made artworks.[12] Also, text mode graphics soon became a commodity that was exchangeable for other scene “goods” such as the aforementioned download credits on BBSs.[13] Even remuneration in cash was not uncommon, at least in the PC scene where the larger investment of time needed to create ANSI graphics made monetary compensations more justifiable. ANSI artists would approach other scene members offering their services, or even advertise them – complete with a price list – in their artworks, while the monetary transaction would happen via cash-by-mail (Ashes of Gehenna 2016; Misfit 2016).
Soon, text mode artists within the scene would organise into their own collectives: both ANSI/ASCII groups on the PC and ASCII group on the Amiga would appear during the first years of the early 1990s.[14] The fact that these groups would use the same infrastructures as the warez scene (being listed as “affiliates” on the same BBSs etc.) shows that these groups were deemed useful and worthy by the scene peers. Their output – in forms of ASCII collections (“collies”) and ANSI/ASCII packs (“artpacks”) – were considered “releases”, that is digital commodities in the barter economy just like cracked software, which could be uploaded onto BBSs to gain download credits.
Art for Art’s Sake
In time, at least in the Amiga ASCII scene, this sort of organising began to be considered too easy a way of entering the scene by those who saw ASCII art as merely a pastime (no matter how well-respected) of people preoccupied with other “trades” within the scene. This can be seen in discussions in several ASCII collections made by established first-generation artists who thought the new generation of artists were gaining entry to the scene too easily.[15] This tension can be explained by the fact that in the Amiga scene, the split between “legal” and “illegal” activities (Reunanen 2014) did not manifest itself on the level of BBS infrastructure: “legal-only” BBSs were rare, and the pirate releases of commercial software were often uploaded in the same file areas as the ASCII art collections, the latter clogging up the file lists from the perspective of those merely interested in cracked programs.
On the PC, the scene underwent a more pronounced infrastructural differentiation: from the mid-1990s onwards a distinct “art scene” appeared, with its own bulletin board systems and other means of communication such as Internet Relay Chat (IRC) channels.[16] Thus, when the PC warez scene moved its operations from bulletin board systems onto FTP servers during the second half of the 1990s, the “art scene” did not follow: It mostly remained within its own infrastructure of BBSs and IRC channels. Drawing requests for other scenes became less important for ANSI practitioners: aside from occasional requests by demoscene groups, the “packs” were dominated by pieces drawn either for “art scene” BBSs or simply for the sake of it. Those few PC art groups which remained closely connected to the warez scene and catered to its demand for text mode graphics, such as Superior Art Creations (SAC), were rather an exception. What was originally the standard mode of barter economy in the relationship between text mode art and the scene, was now to be found only on the periphery of the “art scene”.
With the enhancement of instant real time communication brought about by IRC (which could theoretically involve, unlike multi-node chat systems on BBSs, an infinite number of participants), artists’ competitions took a more predominant role in the scene – the most prominent of them possibly being Blender, where participants had to draw ANSI artworks based on certain topics within a limited time span.[17] Competitions which revolved around drawing artworks to be used in BBS layouts existed as well, but were less prominent.[18] The self-sufficiency of the PC art scene also became evident in that it began producing digital content other than text mode art, such as tracked music and even digital literature (on the latter, see O’Hara 2006, 112f.). Groups dedicated to these artforms rarely saw themselves as part of the (predominantly European) demoscene; they mostly appeared as sub-groups of existing ANSI groups, the bulk of which were located in North America. All in all, during the second half of the 1990s the PC art scene came to form a self-sufficient environment that had minimal interaction with other subsections of the scene.
On the Amiga, due to the reasons outlined above, this encapsulation from the rest of the scene did not take place in such a pronounced form. However, the sheer amount of ASCII artists and groups produced an oversaturation of the “market”, exceeding the demand for text mode art in BBS design and group release packaging. Major cracking and demo groups went on using the same infofile and FILE_ID.DIZ designs for years, which made perfect sense, as these served as well-tried group trademarks; newer artists, however, had less chance to see their works in circulation. As a result, the Amiga ASCII scene also experienced a turn inwards, although not to such an extent as the art scene on the PC: ASCII collections focussed less on the content than on design, requests took a back seat compared to gifts and logos drawn “just for fun”,[19] and several scene magazines focussed on the competition between ASCII groups and ASCII-related discussions than on catering the rest of the Amiga scene with artworks.
Death as Craft, Rebirth as Art Form
In the end, the same set of technological preconditions and subcultural practices that enabled the rise of text mode art as a distinct scene art form also proved its demise. In the course of the second half of the 1990s, bulletin board systems finally became extinct as the backbone of the scene’s infrastructure in favour of Internet-based means of communication. While the demoscene, both on PC and Amiga, began to conduct its communication over web-based forums, IRC channels, blogs and mailing lists, the PC warez scene moved its file exchange onto secure FTP file servers. The Amiga warez scene, experiencing its final peak during the third quarter of the 1990s, became extinct altogether due to the bankruptcy of Commodore and the subsequent dearth of commercial software that could be cracked; some of its BBSs, having gained a foothold into the Internet age by using the Telnet protocol, continued to remain online, but ultimately closed down due to the lack of users and new files.
For text mode art groups on both the PC and the Amiga, “art for the art’s sake” seemed to prove unsustainable at first. While there were at least 706 PC artpacks released in 1997, the number went down to 191 in 2000, 40 in 2005 and ultimately 4 in 2010.[20] As for Amiga ASCII collections, while at least 173 were released between January and September 1999, a mere 19 came out during the same months of 2003.[21] Text mode art lost its natural habitat within the scene, and while the art form largely failed to attract new practitioners doing it for the artistic aspects, seasoned artists, like the aforementioned Rotox, ceased to “see the point unless the logos are actually going to be used on a BBS, FTP site or by a Group” (Dipswitch 2003).
Only in recent years can a certain revival be observed. Fuelled by the new possibilities of instant long-distance communication through social networks, as well as the availability of new text mode graphics software enabling both cross-platform and networked drawing,[22] both old artists making their comebacks and even some new ones discovered text mode art in the scene tradition – including the tradition of forming groups and releasing art packages – resulting in 14 PC text mode artpacks in 2016.[23] A prominent trait of this new text mode art wave is not only the conscious breakdown of platform boundaries between PC and Amiga, but also experimentations with other text mode-based platforms such as PETSCII or Teletext.[24] These practitioners see platforms merely as different modes of expression, not any longer as habitats and objects of fandom – a development owed to possibilities of platform emulation and cross-platform software development. Also, contrary to the traditions outlined here, the new collectives, while being conscious of their roots in the scene, are not any longer part of a scene-internal digital barter economy. Instead, they act as self-conscious participants in the field of computer art, which even includes participating in offline exhibitions.[25] These artists take their skills, sharpened by their teenage scene experience, into a new context and use them as unique and valuable assets in the vast field of “grown-up” art.
Thus, one could say, text mode art in the scene tradition has only now evolved from an applied craft to a self-conscious, independent art form. However, while writing the history of this particular art form it is not enough to focus on its aesthetics; both the technical preconditions and the subcultural economies are crucial to understanding its genesis and development. Exploring these aspects in depth is a task to be taken up by future historians and media scholars.
References
All links verified 14.6.2017
Albert, Gleb J. 2017. ‘Computerkids als mimetische Unternehmer. Die „Cracker-Szene“ der 1980er Jahre zwischen Subkultur und Ökonomie’. WerkstattGeschichte, no. 74: in print.
Ashes of Gehenna. 2016. Interview by Gleb J. Albert. FB-chat, 24 December.
Botz, Daniel. 2011. Kunst, Code und Maschine. Die Ästhetik der Computer-Demoszene. Bielefeld: Transcript.
Carlsson, Anders. 2009. ‘The Forgotten Pioneers of Creative Hacking and Social Networking – Introducing the Demoscene’. In Re:live: Media Art Histories 2009 Conference Proceedings, edited by Sean Cubitt and Paul Thomas, 16–20. Melbourne: The University of Melbourne & Victorian College of the Arts and Music.
Carlsson, Anders, and A. Bill Miller. 2012. ‘Future Potentials for ASCII Art’. Paper presented at the Computer Art Congress 3, Paris. http://goto80.com/chipflip/06/.
Driscoll, Kevin. 2014. ‘Hobbyist Inter-Networking and the Popular Internet Imaginary: Forgotten Histories of Networked Personal Computing, 1978–1998’. PhD diss., Los Angeles: University of Southern California.
Gelder, Ken. 2005. ‘The Field of Subcultural Studies’. In The Subcultures Reader, edited by Ken Gelder, 2nd ed., 1–14. London: Routledge.
Hargadon, Michael A. 2010. ‘Like City Lights, Receding: ANSi Artwork and the Digital Underground, 1985–2000’. MA thesis, Montreal: Concordia University.
Lotvonen, Heikki. 2015. ‘Amiga ASCII-taide’. BA thesis, Espoo: Aalto University School of Arts, Design and Architecture.
Meyers, Raquel. 2016. ‘Is It Just Text?’ In Teletext in Europe. From the Analog to the Digital Era, edited by Hallvard Moe and Hilde van den Bulck, 31–49. Göteborg: Nordicom.
Misfit. 2016. Interview by Gleb J. Albert. FB-chat, 24 December.
O’Hara, Rob. 2006. Commodork: Sordid Tales from a BBS Junkie. s.l.: lulu.com.
Polgár, Tamás. 2005. Freax. The Brief History of the Computer Demoscene. Winnenden: CSW-Verlag.
Ratliff, Brendan. 2007. ‘Why Did Freely Shared, Tracked Music in the 1990’s Computer Demoscene Survive the Arrival of the MP3 Age?’ MA thesis, Newcastle upon Tyne: University of Newcastle upon Tyne.
Rehn, Alf. 2004. ‘The Politics of Contraband: The Honor Economies of the Warez Scene’. The Journal of Socio-Economics 33(3): 359–74.
Reunanen, Markku, and Antti Silvast. 2009. ‘Demoscene Platforms: A Case Study on the Adoption of Home Computers’. In History of Nordic Computing 2, edited by John Impagliazzo, Timo Järvi, and Petri Paju, 289–301. Berlin: Springer.
Reunanen, Markku, Patryk Wasiak, and Daniel Botz. 2015. ‘Crack Intros: Piracy, Creativity and Communication’. International Journal of Communication 9: 798–817.
Subzero. 2016. Interview, Cologne. Interview by Gleb J. Albert. Audio recording, 6 January.
Thornton, Sarah. 2005. ‘The Social Logic of Subcultural Capital [1995]’. In The Subcultures Reader, edited by Ken Gelder, 2nd ed., 184–92. London: Routledge.
Vuorinen, Jukka. 2007. ‘Ethical Codes in the Digital World: Comparisons of the Proprietary, the Open/Free and the Cracker System’. Ethics and Information Technology 9(1): 27–38.
Wasiak, Patryk. 2012. ‘“Illegal Guys”. A History of Digital Subcultures in Europe during the 1980s’. Zeithistorische Forschungen/Studies in Contemporary History 9(2): 257–76.
Woo, Benjamin, Jamie Rennie, and Stuart R. Poyntz. 2015. ‘Scene Thinking: Introduction’. Cultural Studies 29(3): 285–97.
Notes
[1] A fascinating, ever-growing collection of examples spanning over centuries is maintained by Anders Carlsson at http://text-mode.tumblr.com/. I am very much indebted to him and the issue’s editors for comments and criticism of this paper, as well as to Brendan Ratliff for proofreading and Glenn Lunder for providing me with BBS file lists.
[2] For the historical roots of “scene” as analytical concept for subculture studies, see e.g. Irwin 1977; Gelder 2005; Woo, Rennie, and Poyntz 2015. For the (self-)usage of the term by home computer subcultures, see Reunanen 2014.
[3] For the cracking scene in the 1980s: Wasiak 2012; Albert 2017. For the demoscene and particularly its contested roots, see Carlsson 2009; Botz 2011; Reunanen 2014. For tracking music, see Ratliff 2007.
[4] Due to this geographical focus, this paper omits seemingly similar developments in other world regions, such as BBS graphics in Taiwan. Cf.: Cambus 2013.
[5] See the papers by Anders Carlsson and Raquel Meyers in the present issue.
[6] However, there are also text mode graphics on the PC that use “low-ASCII” characters, particularly the so-called “$-style” which makes use of the dollar sign for form-filling, and “oldschool style” inspired by Amiga ASCII, using slashes and underscores.
[8] As an exception, one has to note the curious case of the Polish Amiga demoscene, which relied on “mailswapping” until well into the second half of the 1990s and yet had a very prolific output of ASCII art.
[9] For Z-Modem and other BBS file transfer protocols, see Driscoll 2014, 226–30.
[10] Garrett mentions 1990 (Garrett 2004, 6), while the group entry for The Humble Guys at Demozoo gives a more precise hint at a particular release in 1989: https://demozoo.org/groups/7421/.
[11] For the application of Pierre Bourdieu’s concept of different sorts of capital onto the cracking scene, see Albert 2017.
[13] For download limitations through ratio/credit systems on BBSs, see Driscoll 2014, 315.
[14] For ANSI groups, see Hargadon 2010, 136–37. For over 400 Amiga ASCII groups that existed in the course of the 1990s, see http://amiga.textmod.es/crew/.
This series of works is titled “Joe Is Not Here,” it is based on recollection and longing.
As a Canadian artist who lives overseas, most of my works and the text incorporated in them deal with reminiscing over places and time that may or may no longer exist. Even though the images are centered on a specific region, I believe the feeling of not belonging and longing for a time and moment that may exist only on one’s mind, is a universal phenomenon. One does not need to be an expat to feel this frustration, and this frustration, is what inspires me to put pen into page.
The text works as a meditative medium for me, a visual diary that marks the moment into the image. The size of the text is designed to preserve the privacy a traditional diary provides. Viewers are encouraged to test their patience in reading them, but I also encourage them to view the text for the energy they bring to an image compared to a traditional line.
Artist biography
I’m a Canadian artist currently working in Seoul. My work has been featured in exhibitions in Korea and Canada. I often exhibit under pseudonyms, with each pseudonym and made-up biography reflecting a different body of work. I find that the each body of work needs an environment that is separate from the artist. On a few shows, I hired actors to play the part of the artist. I think it’s interesting to see how the audience interacts with the pretend me.
I grew up in Winnipeg and graduated from the University of Manitoba’s School of Fine Arts with Honours. I had an interest in both sculpture and drawing during my university years but later focused on drawing. I have exhibited in several galleries, submitted works to minor art projects, and sold work for private and public collections. Though it is always good to have the rare opportunity to exhibit in galleries, I am always thinking of alternative ways to show art. This is the reason why I experiment with book publishing as way to show art and the use of pseudonyms and actors as stand-ins.
My drawing style consists of images made up of smaller images and text. It is a visual diary which allows those who are physically able an intimate window into the artist’s psyche. I enjoy exploring this need for public expression versus the need for personal privacy. I think the style also gives the viewer a sense of accomplishment as well as satisfying their inner voyeur.
A golden VHS tape containing teletext pages will be sent out to the edge of the Universe. Its contents have been carefully selected to best represent the medium of teletext to any intelligent extraterrestrial lifeform.
Through these teletext pages, which are by extension a reflection of human society as a whole, the observer will learn more about the people of Earth in 2016. Among the teletext ‘icons’ to be fired into deep space are palm trees and a live football scores teleprinter.
Critics immediately slammed the project, as it would ‘require the extraterrestrials in question to not only have a suitable VHS player, but also a teletext compatible television.’
PETSCII (PET Standard Code of Information Interchange) equals to Commodore ASCII graphics mode. While PETSCII was born for the PET machines of the late 70s, in this short article I will focus on Commodore 64 PETSCII that has its own characteristics. C-64 PETSCII is also relevant to focus on because of the recent boom of PETSCII images and demos. However, a lot of points made in this article concern other ASCII formats, too.Why to work with a 35-year old graphic mode is of course a good question. One reason is the fact that C-64 PETSCII was never a well examined graphics mode. It was mostly used for floppy disk directory art, BBS graphics and BASIC programmes by beginners. In other words, PETSCII was not seen as a competetive craft until the past few years. The other reason is the fact that with its significant limitations PETSCII actually gets you closer to creativity – the artist becomes as much a thinker as a creator. If I had to describe C-64 PETSCII in few words I would say it is ’an old puzzle with multiple solutions’.
C-64 PETSCII offers artist two colours per character. One colour is global while the other one can be selected individually for each 8 x 8 pixel character position. The colours are selected from the C-64’s fixed palette of 16 colours. The C-64 screen (not including the border area) is 320 x 200 pixels with 40 x 25 characters of 8 x 8 pixels. The basic C-64 PETSCII character set provides 256 different symbols to choose from. In comparison to other 80s’ home computer platforms, the C-64’s 16-colour palette is indeed very competitive. This is mainly because of the bearable colour intensity that makes it possible to create a great variety of colour slides by using any dark, any mid-tone and any light colour next to each other. The palette also provides enough cold and warm colours in different tones.
The C-64 basic character set includes 128 different symbols that can be divided into grotesque letters with glyphs and unique graphic symbols that are included to support low-end graphics. These symbols may have been created for beginners that wanted to have some kind of graphics in their first C-64 BASIC language programmes. The other 128 characters are inverse versions of the first half. How the C-64 symbols ended up being as they are rather follows from the creative work of a few designers rather than particularly good planning for a graphic symbol set. An experienced PETSCII artist would most probably recreate most of them. However, despite its weaknesses C-64 PETSCII gives an artist a lot of opportunities to explore. The key issue is that those 256 characters already provide an almost endless amount of possibilities, while the limitations of the graphics mode provide the necessary challenge. Limitations tend to focus creative work, as there are not too many ways to go. In a way, PETSCII can be seen as a very functional graphic mode. Even more so because of the fact it is a highly compressed format. When working with only 64 kB of memory (minus the operating system) that is still a valid issue.
What the artist has to think of beforehand is the global colour, as it will affect the whole image. Instead of the usual choice of black on the background, it might be better to think about the whole through the global colour. A mid-tone makes it possible to have one darker and one lighter colour ’around’ the global one without any problems. In other words: the artist can draw with light and shadow. This is of course just one approach, but it already gets rid of a lot of problems.
The PETSCII character set is relatively bold with practically no one-pixel thick letters or symbols. This already gives all PETSCII visuals a certain clear look. In low-end computer graphics with limited resolutions and amount of colours, manual dithering has always been the main way to mix colours. With the bold PETSCII graphics dithering is almost impossible to do, so such mixing of colours is either not used or it is done by adding more ’noise’ to make the colour clashes vanish. Many PETSCII artists also prefer styles where colour clashes are visible on purpose. Colour clashing refers to a problem in visuals where the colour limitations appear in an unwanted way. This, too, is one of the key issues for a creative artist – to be able to turn disadvantages into advantages. Using visible colour clashes usually leads to a more comic-like appearance. PETSCII visuals are typically not very detailed because of the limitations, or at least creating something detailed takes a lot of time and talent. All in all, the characteristics of PETSCII graphics can be defined as bold, colourful, clear and functional.
Creating a PETSCII image is very much about making observations and improvising based on them – one looks at the image, tries different characters and colours, and finds a bearable solution after a while. This is also something I personally like very much – finding a combination of characters and colours that really work and fit the purpose is often hard work, sometimes pure luck. Somehow it all reminds me of playing with a random Lego set where the pieces were not really made to fit together.
What makes PETSCII art differ from ’normal’ Commodore 64 visuals is that it is less technique-oriented. An experienced PETSCII artist may have a handful of tricks that help him/her on the way, but in the end most of it is created, thought or improvised along the way. Meanwhile, to create a somehow good image using normal C-64 graphics modes already requires much more knowledge on pixeling techniques. Condsidering this, in a way, PETSCII is a more creative way of creating visuals for the C-64. In addition, it is an easier approach for beginners.
The current PETSCII boom of the still very active C-64 demoscene is yet another example of the power of tools. During the 80s or 90s there were almost no tools for creating PETSCII with. Generating images in pure BASIC language or machine code is very tricky indeed and does not support the creativity of an artist at all. During the late 80s there were a few graphic editors devoted to BBS graphics, but all of them lacked in usability and, therefore, made it impossible to do the testing and improvising that PETSCII requires. The lack of good editors largely fed the view that PETSCII was not a usable graphic format. However, the current trend is totally opposite. The post-millennium C-64 demoscene has been more and more interested in the real ’core’ of their computer.
When Markku “Marq” Reunanen from the demoscene group Fit released his PETSCII editor (that also supports other 80s’ platforms), there was finally a decent tool that met the current standards of graphic artists. Suddenly PETSCII was available to everyone, which created a flood of visuals – seemed that everyone in the demoscene was testing this challenging ’new’ format. In the end Marq’s editor affected the aesthetics of the whole C-64 demoscene. After the release of the editor, PETSCII competitions have become a common thing at demoscene parties, demos have started to use PETSCII as a normal graphic format, and even games have been made by using only PETSCII. Benjamin Franklin’s well-known quote Man is a “tool-making animal” fits this case as well. Download Marq’s editor for free at: http://www.kameli.net/marq/?page_id=2717.
After working randomly every now and then with PETSCII for the past few years, I came to a conclusion that with few modifications most C-64 graphics could have been done with PETSCII. In the graphic mode itself there are still lots of secrets to be found – and they will be found as after its 35 years of existence the C-64 demoscene is still hungry for new things. There will be more revised PETSCIIs for specific uses, even though not every stone yet has been turned with the original one either.
Next I will shortly explain a few graphic ideas behind some of my images. The images shown are made as a hobby and often as well as a test of a specific technique. I do not consider these in the art context, but rather as illustrations. Most of them are doodled for fun without much thought for the actual motives. As PETSCII was new for me when I started with Marq’s editor, many of the works I have done have been merely tests on simple things like materials, dithering, color clashes and so on.
Ascii Pron Remix Art is a reformatted version of the first pornographic art published and shared on the internet. What you will see in the coming pages is not ASCII art, but screenshots, a record of the Ascii Pron Remix happening in a text editor on my computer.
The idea in Ascii Pron Remix was to create “glitched versions” of the original ASCII pornography available online on many websites that have galleries featuring ASCII porn art, such as Textfile and Ascii Pron. I have been making glitch art and working with internet pornography for some years and I have glitched a huge amount of pornographic pictures, videos and GIFs, appropriating the material from various online sources and discovering the way porn is produced and shared on the World Wide Web.
I then make art out of the material, trying to problematize the readability of pornographic images and publishing them on various social media sites, posts on Facebook groups and walls, screenshots on Instagram, tweets on Twitter and last but not least, as Tumblr’s blogs such as Pirate Porno Material 1, Pirate Porno Material 2 and Red Link District. I take these projects from the World Wide Web and bring them AFK on street and public toilet walls using stickers with QR-codes that link to the projects online, creating access points to these dirty new media projects online. After all, it is the distribution and publishing that altered pornography everywhere.
I was wondering if there was a way to “glitch” text-based art and I came up with the idea of making copy/paste ASCII art in text editing software, trying to reformat their original style. I got the most interesting results from the text tool in Photoshop CS6 that suited as the best choice to keep the ASCII art as an altered edit but with a recognizable form. I kept focusing my research and creation on online pornography production. The original works here were copied from the sources mentioned above (Textfiles and Asciipr0n) and then pasted using the text tool in Photoshop. I selected among many fonts (Figure 1) what I felt was the best one and kept the text highlighted to give the text a shadow touch. I then used the <ctrl+stamp> function to copy and paste the screen in Microsoft Paint. The final outcomes were then cropped and saved in .bmp pixel image format.
When I was working with online pornography I understood that porn is accessible basically everywhere and it is also so easy to do so. Working with the images, I realized that the quality of images, thanks to constant improvements of screen and internet technologies, was reaching levels of high definition that were unimaginable some years ago. Back then even poor quality pictures took long to upload. The online pornography today is probably not the best known to mankind but it surely has the best image quality ever.
The first pornography to circulate on the internet was far away from contemporary online porn and it was presented under the form of ASCII art and produced with graphic design techniques. We are talking about the times of bulletin board systems (BBS), Fidonet, e-mail, telnet, usenet and gopher. I wanted to push the problematizing approach in porn production and in porn reading a bit further and so I decided to apply the “glitch” text technique I was experimenting to ASCII porn, often spelt wrong as “Ascii Pron”. The results I got from this process were really exciting, and having all of the different types of fonts available it was just really a wide field of discovery of how much it is possible to depict just using ASCII characters.
The Ascii Pron Remix Art collection is presented with the original filenames are as they appear on major text art archives such as www.textfiles.com and www.asciipr0n.com.
The process of drawing, stemming from a line, a mark on a surface, in any media, is a deeply personal process, and the most ancient of art forms. The act of drawing and the end result may depict the world as we know, through observational studies of moments, light, form, or it can be a subjective process and experience, from deep within, where our emotions and thoughts run free and are brought to the surface through a tactile process.
These photographic images and mixed media works represent these subtle realities. They are observational in nature, sharing with its audience the light of the landscape, the fields and vast deserts. This body of work represents the subtle realities, a “moment” from within, where words alone may not describe, but a line does, a form depicts, and ink draws. The fusion of words and line are intertwined at the core, the word “J ‘arrive” has double meaning, which translates from French “I am capable” as well as “I am arriving”. This is repeated again as a reminder of a goal to be achieved. The landscape is symbolic and similar to one’s journey in life, of being on a road or path, which leads to new places of wishful discoveries.
This body of work is a reflection on the act of drawing, both in the process, as well as in the outcome found, where words are utilized as line, and lost, and found again.
Artist Biography
Naz Shahrokh has worked as an artist and educator internationally in the United States, Egypt, and the United Arab Emirates. She received a BFA and an MFA in Painting, and an MS in Art History from Pratt Institute, Brooklyn, NY, where she later taught Fine Arts and Art History from 1998 to 2008. She joined the faculty at the Performing and Visual Arts Department at the American University in Cairo, Egypt in 2004-2006, and has been teaching at Zayed University, Abu Dhabi, UAE since 2008.
Naz has exhibited her work internationally and awards for her work include the Change Inc. (the Rauschenberg Foundation) Grant, Captiva, FL, and the Artist-In-The-Marketplace Fellowship, the Bronx Museum, Bronx, NY. Her work has been reviewed in the New York Times, TimeOut Abu Dhabi, the Connecticut Post, the Advocate and Greenwich Time, Contemporary Practices, and ART PAPERS, and is included in private and public collections internationally.
Throughout her creative process and research, Naz investigates common challenges found within the environment with a focus of bringing forth in tactile matter an experience that is both pleasing to the eye as well as revealing. Naz is currently working on several projects connected to land art, where she is investigating the landscape of the United Arab Emirates, as well as a body of work linked to cartography.
Tutkimuksessa tarkastellaan tapoja, joilla uutta teknologista laitetta, Googlen älylaseja, kotoistetaan eli tehdään tutuksi suomalaismediassa. Aineistona on lähes 300 mediatekstiä vuosilta 2012–2015, jolloin Googlen älylaseja kehitettiin ja koekäytettiin lähinnä Yhdysvalloissa. Tutkimuksen näkökulmana on niin sanottu esikotoistuminen (esidomestikaatio), sillä kiinnostus kohdistuu uuden teknologian merkityksellistämisen prosessiin ennen kuin ihmiset pääsevät tutustumaan laitteeseen omassa käytössään. Analyysissa hyödynnetään diskurssinarratologista lähestymistapaa. Tutkimuksen keskeisinä kysymyksinä ovat, miten kotoistaminen toteutuu mediateksteissä ja millaiseen uutta laitetta koskevaan merkityksenantoon suomalaisia lukijoita kutsutaan. Erittelyssä huomio kiinnitetään diskursiiviseen toistoon, jonka kautta kotoistaminen mediateksteissä keskeisesti toteutuu. Tutkimuksessa erottuu neljä pääasiallista kotoistamisen tapaa, jotka tekivät älylaseja tutuksi teknisten mahdollisuuksien, kohtuuhintaisen kuluttajatuotteen odotuksen, soraäänten ilmausten sekä vaietun teknologisen infrastruktuurin kautta. Analyysi tekee näkyväksi, että uudet laitteet kotoistuvat median julkisuustiloissa ratkaisuina ongelmiin, joita niitä suunnittelevat yritykset itse saavat määritellä.
Avainsanat: älylasit, big data, domestikaatioteoria, esidomestikaatio, Google, kotoistuminen, teknologian sosiaalinen rakentuminen, uusi kuluttajateknologia
Uusi kuluttajateknologia kotoistuu eli tulee tutuksi jo ennen kuin ihmiset pääsevät oman käyttönsä kautta liittämään laitteeseen merkityksiä. Tarkastelen tässä artikkelissa teknologian merkityksistä käytyjä neuvotteluja ja teen näkyväksi prosessia, jossa uuden teknologisen artefaktin paikkaa määritellään ennen sen mahdollista sulautumista osaksi päivittäistä ympäristöämme. Lähestyn teknologian arkipäiväistymistä siis esikotoistumisen näkökulmasta. Aineistoni koostuu Google Glass -älylaseja käsittelevistä Suomessa julkaistuista mediateksteistä.
Google Glass on hakukonejättinä tunnetun Googlen luoma päässä kannettava minitietokone. Laitteen kehittämisestä kerrottiin suomalaisessakin uutiskirjoittelussa ensimmäisen kerran talvella 2012. Yritys kehitti älylaseja Explorer-ohjelmassa, johon mukaan päässeet käyttäjät ja sovelluskehittäjät saivat ensimmäiset laitteet käyttöönsä keväällä 2013. Vuotta myöhemmin keväällä 2014 prototyypin myynti avattiin kaikille Yhdysvalloissa ja Isossa-Britanniassa. Tammikuussa 2015 Google ilmoitti lopettavansa lasien myymisen, ottavansa aikalisän ja harkitsevansa uudelleen lasien kehittämisen suuntaa. Älylaseja tehtiin tutuksi niitä käsittelevän uutiskirjoittelun lisäksi esimerkiksi lukuisissa YouTube-videoissa ja blogikirjoituksissa.
Koska Googlen älylasit eivät ehtineet kauppoihin Suomessa, kotimaiset aihetta käsittelevät mediatekstit tarjoavat mahdollisuuden tarkastella, miten uutta teknistä laitetta kotoistetaan jo ennen kuin ihmiset pääsevät oman käyttönsä kautta liittämään laitteeseen merkityksiä. Googlen älylasit ovat tapauksena kiinnostava jo siksi, että laite on ensimmäinen lisätyn todellisuuden sovellus, joka esiteltiin ihmisille kuluttajatuotteena (puettavien tietokoneiden kehityksestä ks. esim. Mann 1997; Miller 2012; Winchester 2015). Tästäkin syystä Google panosti laitteen tutuksi tekemiseen ja käytti esimerkiksi ennakoivaa markkinointia oman teknovisionsa välittämiseen (Encheva ja Pedersen 2013).
Tutkimukseni viitekehyksenä on ajatus teknologian sosiaalisesta rakentumisesta. Pyrin tuottamaan uutta tietoa tavoista, joilla perinteiset viestimet esitystensä kautta osallistuvat uuden teknologian merkityksellistämiseen ja sen asemoitumiseen osaksi kulttuuria ja yhteiskuntaa. Viittaan termillä ’kotoistuminen’ tutuksi tulemisen laajempaan prosessiin ja termillä ’kotoistaminen’ tutuksi tekemisen diskursiivisiin tekoihin. Suomalaisissa tutkimuksissa domestikaatiosta käytetty termi ’kotiuttaminen’ sopii tutkimukseeni huonosti, koska se korostaa uuden teknologian sovittamista kotitalouden tilaan (terminologiasta ks. Helle-Valle ja Slettemeås 2008; Peteri 2006, 58). Suhteutan tutkimuksen tuloksia domestikaatioteorian ja laajemmin teknologian kulttuurisen omaksumisen piirissä tehtyihin tutkimuksiin.
Kysymys uuden teknologian kotoistumisesta on tärkeä, sillä teknologia muokkaa maailmaa tarjotessaan käyttömahdollisuuksia ja kannustaessaan käyttäjiä tietynlaiseen toimintaan. Teknologian kotoistumisessa on siis kyse sekä tavoista, joilla teknologiaa muokataan ympäristöön sopivaksi että tavoista, joilla ympäristöä muokataan teknologian ehdoilla ja keinoilla. Maantieteilijät Nigel Thrift ja Shaun French (2002) ovat kuvanneet osuvasti, kuinka ihmisten jo omakseen ottamaa teknologiaa yhdistää se, että se on sulautunut ihmisten arkeen ja tullut jokapäiväisen elämän normaalina pidetyksi osaksi, johon sen tuttuuden vuoksi kiinnitetään vain harvoin huomiota. Ennen teknologian arkipäiväistymistä käydään kuitenkin aina neuvottelua ja tehdään tällöin rajanvetoja koskien sitä, mistä laitteessa on kyse, mitä siltä toivotaan ja mitä ei toivota (ks. esim. Pantzar 2000; Suominen 2003). Tutkimustani motivoikin kiinnostus siihen, miten ihmisiä puhutellaan uuden teknologian pariin, miten teknologian arkiset merkitykset rakentuvat ja miten vielä paikkaansa etsivää teknologiaa tutkimalla voidaan mahdollisesti saada otetta sellaisista teknologiaan liitetyistä merkityksistä, joiden havaitseminen on vaikeaa, kun teknologia on arkipäiväistynyt. Esikotoistumisen näkökulma kiehtoo minua, koska se mahdollistaa sen näkyväksi tekemisen, että myös toisenlaiset tavat ajatella, kehittää ja käyttää teknologiaa ovat mahdollisia.
Merkille pantavaa on, että mediatutkimuksen kentällä domestikaatioteoria siirsi tutkimuksellisen näkökulman tekstistä kontekstiin eli median käyttäjiin, joita tutkitaan heidän omassa ympäristössään (Berker et al. 2005, 5). Tämä on tarkoittanut sitä, että tekstuaalinen lähestymistapa teknologian kotoistumiseen ja siten myös mediaesitysten rooli kotoistumisessa ovat jääneet tutkimuksissa vähälle huomiolle. Käytännössä teknologiaan kuitenkin aletaan liittää merkityksiä jo ennen sen hankkimista, ja nämä merkitykset muodostuvat paljolti median esittämän perusteella, kuten usein käsitykset asioista, joihin ei ole ensikäden tuntumaa.
Lähtökohtani onkin, että medialla on tärkeä rooli esikotoistumisen prosessissa. Haen tästä prosessista otetta hyödyntämällä analyysissani diskurssinarratologista lähestymistapaa (Ridell 1994, 2009). Tarkemmin ottaen erittelen aineistostani, mitkä tahot tai toimijat pääsevät määrittelemään älylaseja ns. suurelle yleisölle, mihin näkökulmiin lukijoita kutsutaan samastumaan, kuinka uusi artefakti kuvitetaan, ja mitä mediatekstien ulkopuolelle on jätetty. Aineistoni koostuu Googlen älylaseja koskevista mediateksteistä, joita ilmestyi kolmessa vuodessa helmikuusta 2012 tammikuuhun 2015 kaikkiaan 283 kappaletta aineistossa mukana olevissa 21 julkaisussa[1]. Näistä puolet ovat elektroniikka-alan julkaisuja ja puolet päivälehtiä, iltapäivälehtiä, verkkolehtiä ja verkkouutisia julkaisevia tv- tai radiokanavia. Älylaseja koskevia uutisia julkaistiin ennen kaikkea elektroniikka-alan lehdissä, joissa ilmestyi neljä viidesosaa aineiston mediateksteistä. Aineisto käsittää pääosin melko lyhyitä ja tiiviitä uutisia[2]. Mukana on myös yksi kolumni ja seitsemän juttua, joissa toimittajat testasivat älylaseja.
Artikkeli etenee siten, että käsittelen ensin teoreettisia lähtökohtia ja menetelmää omissa luvuissaan. Tämän jälkeen valotan, miten älylaseja tehtiin tutuksi neljällä toisistaan erottuvalla diskursiivisella tavalla: teknisten mahdollisuuksien, kohtuuhintaisen kuluttajatuotteen odotuksen, soraäänten ilmausten sekä teknologisesta infrastruktuurista vaikenemisen kautta. Artikkeli päättyy pohdintaan kotoistamisen politiikasta.
Kotoistumisesta teoreettisena lähtökohtana
Tutkimukseni teoreettisena lähtökohtana on ajatus teknologian ja teknologisten artefaktien kotoistumisesta omanlaisenaan neuvotteluna. Näitä teknologiaan liitettyjä neuvotteluja on havainnollistanut ja teoretisoinut esimerkiksi sosiologi Turo-Kimmo Lehtonen uuden teknologian kotoistumisen vaiheita käsittelevässä tutkimuksessaan (Lehtonen 2003). Eri tahot suunnittelijoista ja laitevalmistajista mainostajiin, käyttäjiin ja mediaan osallistuvat tähän artefakteja tutuksi tekevään prosessiin. Neuvotteluissa uuden laitteen merkityksistä eri toimijat määrittelevät sen paikkaa arjen käytännöissä rakentaen samalla tietynlaista sosioteknistä ympäristöä. Uuteen teknologiseen artefaktiin liitetyt merkitykset ja laajemmin sen mahdollisuus sijoittua osaksi ympäristöä kytkeytyvät neuvotteluihin vallitsevan kulttuurin ja laitteen ilmentämien arvojen välillä. Kotoistumisen ymmärtäminen neuvotteluksi haastaa klassisen innovaatioiden omaksumiskäyrän ajatuksen (Rogers 1983) uusien teknisten laitteiden käyttöönotosta rationaalisena, lineaarisena ja teknologisesti määräytyneenä prosessina, jossa käyttäjät ottavat teknologian vähitellen omakseen sellaisena kuin se heille tarjotaan. Kotoistumisen näkökulmasta tärkeitä ovat yhtäältä käyttäjien teknologialle antamat merkitykset ja toisaalta se, miten teknologia muokkaa ihmistä ja yhteiskuntaa (esim. Hyysalo, Jensen ja Oudshoorn 2016; Lehtonen 2003; Oudshoorn ja Pinch 2003).
Tutkimukseni viitekehyksinä toimivat teknologian sosiaalisen rakentumisen (SCOT) ja domestikaation teoriat. Teknologian sosiaalisen rakentumisen teoriassa ydinajatuksena on, että niin teknologia kuin sen kehittäminenkin kietoutuvat sosiaalisiin tekijöihin. Lähestymistavan keskeiset kehittäjät tieteen- ja teknologiantutkijat Trevor Pinch ja Wiebe E. Bijker (1984, 419) ovat luonnehtineet teknologiaa tulkinnallisesti joustavaksi, mikä tarkoittaa sitä, että teknologinen artefakti voidaan määritellä monilla erilaisilla tavoilla, ja se voi myös tarkoittaa eri ihmisille eri asioita. Tutkimuksellinen kiinnostus on teknologian sosiaalisen rakentumisen näkökulmasta usein kohdistunut teknologian keksimiseen, kehittämiseen ja suunnittelun prosesseihin sekä ymmärryksiin, joita suunnittelijoilla on käyttäjistä. Sen sijaan domestikaatioteoreettisesti suuntautuneet tutkijat ovat kiinnittäneet erityisesti huomiota tapoihin, joilla aktiiviset käyttäjät kohtaavat, omaksuvat, kuluttavat ja merkityksellistävät teknologiaa omassa arjessaan (Aune 1996, 92; Bertel 2013, 20; Silverstone 2006, 232). Mediatutkimuksellinen domestikaation tutkimus on tavannut olla otteeltaan etnografista, ja teknologiaa on tarkasteltu ennen muuta osana kotitalouksien tilaa (Haddon 2011, 314–315; Peteri 2006, 60).
Mediaetnografisen domestikaatioteorian kehittämiseen osallistuneen Leslie Haddonin (2006, 198) mukaan verrattain itsenäisesti kehittyneiden domestikaatioteorian ja SCOT:n välistä risteyskohtaa voidaan kuvata siten, että domestikaatioteoriassa keskitytään teknologian sosiaalisen rakentumisen prosesseihin sen jälkeen, kun käyttäjät ovat jo hankkineet uuden laitteen. Oma tutkimukseni sijoittuu lähestymistapojen väliin, sillä huomioni kohdistuu tapoihin, joilla mediatekstit kotoistavat uutta artefaktia ja tällä tavoin muovaavat sitä koskevia käsityksiä. Käytännössä kyse on asetelmasta, jossa suunnittelijat ovat antaneet laitteen valikoidun käyttäjäjoukon testattavaksi, mutta jossa valtaosa ihmisistä ei vielä ole edes kokeillut laitetta. Tämän esikotoistumiseksi kutsumani tilanteen kiinnostavuus ja tärkeys on siinä, että vielä kehittelyn ja testauksen vaiheessa oleva teknologia on erityisen avoin uusille määrittelyille. Neuvottelut uudesta, vielä paikkaansa etsivästä teknologiasta tekevät mahdollisesti näkyväksi sellaisia teknologiaan liitettyjä merkityksiä, joiden havaitseminen on vaikeaa, kun teknologia arkipäiväistyessään muuttuu itsestäänselvyydeksi.
Kotoistumisen näkökulmasta teknologian kulttuuriset esitykset ja erityisesti laitteiden mediarepresentaatiot ovat oleellinen osa yhä teknologiavälitteisempää arkitodellisuutta ja elinympäristöä. Tutkimuksessa tätä näkökulmaa kotoistumiseen on käsitelty niukasti, vaikka esimerkiksi Leslie Haddon (2003, 44) mainitseekin sekä median että populaarikulttuurin roolin teknologian tutuksi tekemisessä. Esikotoistumisen vähäistä tutkimusta selittänee yhtäältä sen sijoittuminen teknologian kehittämisen ja käyttämisen aloittamisen väliin. Toisaalta tekstuaalisia menetelmiä on pidetty toissijaisena kotoistumisen ymmärtämisessä (Berker et al. 2005, 5). Poikkeuksena mainittakoon Jaakko Suomisen (esim. 2003, 2009, 2013; Suominen ja Parikka 2010) ja Mika Pantzarin (1996, 2000) historiallisia populaarijulkisuuden aineistoja hyödyntäneet tutkimukset teknologian tutuksi tekemisestä ja tulemisesta. Jari Luomanen ja Virve Peteri (2013) sivuavat esikotoistumisen näkökulmaa tutkimuksessaan iPadin diskursiivisesta tutuksi tulemisesta. Heidän aineistonsa kattaa verkkokeskusteluja laitteen julkistuksesta siihen asti, että ihmiset saivat iPadin käyttöönsä. Esikotoistumisen ottamista lähemmän tarkastelun kohteeksi tukee Luomasen ja Peterin havainto siitä, että laitteisiin jo ennen hankintaa liitetyt merkitykset rakentuvat mediavälitteisesti.
Uutistekstit kotoistumista pohjustamassa
Lähestyn siis käyttäjien ja teknologian suhdetta mediateksteissä lähtemällä siitä, että ihmiset on saatava kiinnostumaan teknologiasta, josta heillä ei ole omaa kokemusta. Heidät on ikään kuin kutsuttava uuden teknologian pariin, tutustumaan siihen sen (potentiaalisina) tulevina käyttäjinä. Tilanteessa, jossa jokin teknologinen artefakti ei vielä ole käyttäjien ulottuvilla, median välittämät ja rakentamat merkitykset tekevät laitetta tutuksi ja osallistuvat merkitysten rakentamiseen erityisen tärkeällä tavalla. Tarkastelen kuvauksia Googlen älylaseista prosessina, joka aktiivisesti tuottaa uutta artefaktia tietynlaisena. Näin ajatellen media on yksi kotoistumisen keskeisistä toimijoista.
Tutkimukseni aineistona ovat perinteisen median tekstit, sillä katson samaan tapaan kuin mediatutkija Seija Ridell (2009, 242), että journalismilla on edelleen keskeinen asema julkista elämää esittävänä ja yhteiskuntaa aktiivisesti järjestävänä merkityskäytäntönä. Näin siitäkin huolimatta, että sen rinnalle on tullut ja tulee rinnakkaisia ja vaihtoehtoisia tiedonsaannin kanavia, jotka joillekin median käyttäjille ovat tärkeydessä ohittaneet perinteisen median. Tutkimuksellisesti pidän tärkeänä tarkastella, miten mediaesityksissä rakennetaan mielikuvia teknologiasta, sillä diskursiivisesti tuotetut mielikuvat vaikuttavat osaltaan siihen, millaiseksi teknologiavälitteinen tulevaisuus aktuaalisesti muotoutuu (ks. myös Wilkie ja Michael 2009). Tuomalla vasta kehitysvaiheessa ja vain harvojen suomalaisten saatavilla olleet Googlen älylasit esitykselliseen julkisuustilaansa suomalainen media teki niistä laajassa mielessä yhteisen asian (Ridell 2009, 243).
Uutiset ovat kiinnostava aineisto teknologian tutuksi tekemisen tarkasteluun, sillä lajityypillä on eri muodoissaan edelleen vahva asema päiväkohtaisen tiedon välittämisessä. Saadakseni otteen siitä, millaiseen älylaseja ja laajemmin (teknologiavälitteistä) sosiaalista todellisuutta koskevaan merkityksenantoon suomalaisia lukijoita kutsuttiin journalistissa mediateksteissä, hyödynnän diskurssinarratologista lähestymistapaa (Ridell 1994, 2009). Sen taustalla on kriittisen kulttuurintutkimuksen Louis Althusserin ideologiateoriaan juontuva ajatus siitä, että ideologisuus ilmenee tavoissa, joilla lukijoita puhutellaan tietynlaisiin tulkinta-asemiin suhteessa kulloinkin käsiteltävään asiaan. Erittelyni kohdistuu niihin diskursiivisiin tapoihin, joilla mediateksteissä ensisijaistetaan tiettyjä älylaseihin liitettyjä merkityksiä toiston kautta ja rakennetaan tällä tavoin lukijan merkityksenannolle tietynlaisia asemia. Diskursiivinen toisto on samalla se keskeinen mekanismi, jossa esikotoistuminen mediateksteissä toteutuu (ks. myös Pantzar 2000, 16). Lähestymistapani resonoi narratologista uutistutkimusta kehittäneen Seija Ridellin sen ajatuksen kanssa, että kutsuessaan ihmisiä tulkitsemaan esittämiään yksittäistapauksia tietyllä tavalla, mediatekstit samalla tarjoavat heille tämän tulkinnan implikoimaa käsitystä yhteiskunnallisen todellisuuden järjestymisestä (Ridell 1994, 105). Lukijan diskursiivinen asemointi tekstissä tuleekin ymmärtää retorisesti. Toisin sanoen kyse on journalistiseen esitykseen sisäänrakennetusta puhuttelusta, joka voi pyrkiä vaikuttamaan lukijaan mutta ei pysty lyömään ennalta lukkoon tämän aktuaalista merkityksenantoa. (Emt., 124.)
Toisto on kotoistamisen keskeinen mekanismi sekä aktuaalisesti että diskursiivisesti. Mediatekstien toistot voidaan ymmärtää kulttuuria tuottaviksi ja muokkaaviksi teoksi. Ne ovat siis performatiivisia. Toisto on journalistisessa tekstissä merkityksellinen retorinen keino myös siksi, että se tekee näkyväksi toimittajan valintoja ja hänen valtaansa ratkaista, mikä median diskursiivisessa julkisuustilassa korostuu ja mistä vaietaan. Jäljitin analyysissani toistuvuuksia uutisten aiheissa, kuvituksessa sekä ääneen päässeissä toimijoissa. Aineiston käsittelyssä hyödynsin Atlas.ti-ohjelmistoa. Toiston erittelyn pohjalta hahmottui neljä pääasiallista tapaa, joilla älylaseja tehtiin kirjoittelussa tutuksi. Kolme näistä tavoista rakentui merkityksistä, jotka älylaseihin liitettiin toistuvasti riippumatta siitä, mitä mediatekstit aiheiltaan käsittelivät. Neljäs merkityksellistämisen tapa muodostuu vaikenemisen toistosta, toisin sanoen siitä, mikä jutuissa yhä uudestaan ohitettiin ja mistä niissä jätettiin kertomatta.
Älylasit tutuiksi kotoistumisneuvotteluissa
Kirjoittelussa toistuivat samat aiheet liittyen erityisesti älylasien kehittämiseen, teknisiin ominaisuuksiin ja käyttömahdollisuuksiin. Toisteisuutta havainnollistaa jo se, että aineistoni 283 uutisessa käsiteltiin vain 152 erillistä aihetta. Uutisista kuudesosa oli kierrätettyjä juttuja eli eri julkaisuissa ilmestyneitä identtisiä uutisia. Kahdessa kolmasosassa jutuista toistui maininta kansainvälisestä, useimmiten yhdysvaltaisesta lähteestä. Valtaosassa jutuista Google Glass tehtiin tutuksi kuvittamalla se joko lähikuvalla laseista, niitä päässään pitävistä ihmisistä tai älylasien sovelluksesta. Yli puolessa uutisista käytettiin kuvituksena Googlen tuottamaa markkinointimateriaalia. Lasien yksityiskohtia esittelevissä kuvissa tulivat tutuiksi tekniset yksityiskohdat kuten silmän yläpuolelle sijoittuva näyttö ja sangan hipaisunauha. Kuvissa, joissa lasit olivat käyttäjän päässä, toistuivat trendikkäät ja iloiset nuoret naiset sekä urheilevat miehet. Kuvituksena käytettiin myös Googlen markkinointikuvia, jotka esittivät maailmaa lasien läpi: kuvissa toistuivat sääsovellus, jossa ikkunasta häämöttävän kerrostalomaiseman pinnalla näkyy lämpötila ja sateen todennäköisyys sekä lentokenttäsovellus, jossa lentokentäksi tunnistettavissa olevaa taustaa vasten näkyy tieto, että lento on ajassa.
Mediateksteissä älylasien kotoistuminen välittyi prosessina, jonka pääosassa oli Google. Uutisten julkisuustilassa Google yrityksenä myi, vakuutteli, suostutteli ja puolusteli uutta laitettaan, mutta laitteen merkityksistä käytyihin neuvotteluihin osallistuivat myös toimittajat, kokeilijat, sovelluskehittäjät, sijoittajat, kilpailevien teknologiayritysten edustajat, viranomaiset, päättäjät, asiantuntijat, etujärjestöt sekä huolestuneet kansalaiset ja yrittäjät. Kuva 1 esittää, kuinka eri toimijat osallistuivat älylasien merkityksellistämiseen mediateksteissä.
Useimmat uutisissa ääneen päässeistä toimijoista osallistuivat merkitysten rakentamiseen yhdestä tietystä näkökulmasta. Googlen yhteistyökumppanit, sijoittajat, sovelluskehittäjät ja ammatissaan laseja käyttävät tekivät laseja tunnetuksi mahdollisuuksien laitteena, kun taas kansalaisjärjestöt, yritykset, kilpailevien teknologiayritysten edustajat, viranomaiset, päättäjät ja etujärjestöt olivat äänessä huolestuneina tai arvostellen. Keskeisimpiä älylasien kotoistajia olivat Google, kokeilijat ja toimittajat, jotka puhuttelivat lukijoita kaikkiin kolmeen pääasialliseen kotoistamisen tapaan liittyen. Vaikka uutisissa kaiken kaikkiaan esiintyi useita toimijoita, tavallisimmin äänessä oli vain yksi taho kerrallaan. Useita eri näkökantoja edustavia toimijoita oli jutuissa vain harvoin. Näissä tapauksissa asetelma rakentui siten, että Google sai viimeisen sanan.
Tarkastelen seuraavaksi lähemmin kolmea keskeistä tapaa, joilla Googlen älylasit tehtiin lukijoille tutuksi. Diskursiivisen toiston synnyttämät merkityskimput kotoistivat älylaseja (1) niiden tarjoamien teknisten ja sosiaalisten mahdollisuuksien, (2) laitteen kohtuuhintaisen kuluttajatuotteen odotuksen sekä (3) soraäänten ilmausten kautta. Lisäksi käsittelen näkökulmaa, joka mediateksteissä ohitettiin, eli (4) älylasien kytkeytymistä osaksi Googlen datan keräämiseen ja käsittelemiseen perustuvaa ekosysteemiä ja siihen nojautuvaa liiketoimintaa.
Älylasit mahdollisuuksien laitteena
Ensimmäisessä merkityksellistämisen tavassa älylasit tehtiin tutuksi laitteena, jonka mahdollisuudet ovat huikeat mutta eivät vielä tiedossa. Uutisaiheissa tuotiin toistuvasti esiin laitteen prototyypin teknisiä ominaisuuksia ja kuvailtiin mahdollisia käyttötapoja. Näissä uutisissa älylasien merkityksellistäminen annettiin lähes täysin Googlelle itselleen. Toimittajat, kokeilijat, sovelluskehittäjät, yhteistyökumppanit, sijoittajat ja laseja ammattikäytössä testanneet tahot pönkittivät Googlen sanomaa innostuneella hehkutuksella. Osa älylasienkin tutuiksi tekemistä olivat niitä kuvaavat nimitykset, jotka korostivat erilaisia merkityksiä ja käyttömahdollisuuksia. Mediateksteissä laseja kutsuttiin muun muassa keinotodellisuussilmälaseiksi, scifi-laseiksi, Googlen ihmelaseiksi, opastaviksi silmälaseiksi ja nenälle puettavaksi tietokoneeksi. Erilaiset uudelle laitteelle annetut nimitykset kuvaavat sitä, miten sille pyritään löytämään ja tekemään paikkaa ihmisten laitearkeen (Suominen 2003, 45, 70).
Älylasien esittelyssä nojattiin Googlen tiedotteisiin. Laitetta luonnehdittiin sankoihin kiinnitetyksi Android-käyttöjärjestelmän minitietokoneeksi, jota ohjataan äänikäskyllä ”Ok Glass”, käyttämällä oikeassa sangassa sijaitsevaa hipaisunauhaa tai silmien ja pään liikkeillä. Uutisissa kuvattiin tarkasti yläviistoon oikean silmän edessä sijaitsevaa läpinäkyvää ”näyttöä” eli pienistä pikseleistä koostuvaa 640 x 360 pisteen mikrokokoista projektoria, jonka kuva heijastetaan silmään prisman kautta. Valokuvaamista varten kerrottiin olevan viiden megapikselin kamera ja videoiden tallentuvan 720 kuvapisteen tarkkuudella. Myös luiden värähtelyä hyödyntävät kuulokkeet, flash-muistia käyttävä 12 gigatavun tallennustila ja Googlen pilvitallennuksen kanssa synkronoituva tallennusmuisti toistuivat teksteissä lukuisia kertoja. Datan puolestaan kerrottiin siirtyvän langattoman verkon tai bluetoothin avulla ja lasien toimivan puhelimen jatkeena bluetooth-kuulokkeen tavoin. Kuva 2 esittää Googlen älylasien keskeiset ominaisuudet.
Suomalaisia lukijoita kutsuttiin älylasien pariin esittelemällä ne hankkeena, joka yhdistää älypuhelimen toimintoja ja useita Googlen palveluita päässä pidettävään visiiriin. Tavat, joilla älylaseja kuvattiin ja vääjäämättömyys, joka niiden yleistymiseen liitettiin, olivat omiaan totuttamaan suomalaislukijoita ajatukseen, että tulevaisuudessa monet arkiset asiat tapahtuvat älylasien välityksellä: niiden avulla luetaan ja vastataan tekstiviesteihin ja sähköposteihin, puhutaan videopuheluita, kuvataan ja jaetaan valokuvia ja videoita, tehdään Google-hakuja, navigoidaan, käytetään kalenteria, vastaanotetaan säätiedotteita ja kuunnellaan musiikkia. Puhuttelu on varsin tyypillinen uutta teknologiaa käsittelevälle journalismille. Esimeriksi Jaakko Suominen (2003, 49) on todennut, että teknologiaa käsittelevissä uutisissa on ollut tapana esittää lupauksia mullistavasta tulevaisuudesta, joka on nurkan takana.
Jo sen vuoksi, että Google antoi lisätoiminnallisuuksien ideoimisen kolmannen osapuolen sovelluskehittäjille, toimittajien oli kirjoittelussaan kotoistettava älylaseja laitteena, joka on kohta tulossa ja jonka ”todellista hyötyä ja hupia voi arvioida kuitenkin vasta sitten, kun laseihin saa ladattua lisää sovelluksia” (Helsingin Sanomat 25.5.2013; myös Tietoviikko 1.6.2013, 13.6.2013; YleX 13.6.2013; Iltalehti 18.6.2013; Digitoday 27.6.2013). Luomanen ja Peteri (2013) tunnistivat vastaavan diskursiivisen strategian tutkiessaan tapoja, joilla verkkokeskustelijat merkityksellistivät juuri markkinoille tullutta iPadia: laitetta pidettiin mullistavana siitäkin huolimatta, että sen todelliset mahdollisuudet sijoitettiin tulevaisuuteen.
Älylasien mahdollisuuksia korostavassa kotoistamisen tavassa toimittajat omaksuivat roolin, jossa he kutsuivat lukijoita kanssaan odottamaan teknisen toteutuksen lopullista muotoa. Älylaseille kehitetyt sovellukset esimerkiksi uutisten lukemiseen, verkostoitumiseen, kuvien muokkaamiseen, muotivinkkien saamiseen ja käännösten tekemiseen esiteltiin lukijoille innostuneesti merkkeinä siitä, että älylasit taipuvat monenlaiseen käyttöön. Tarkempaa hahmoa älylasien mahdollisuudet saivat uutisissa, joissa kerrottiin suunnitteilla olevista sovelluksista. Autovalmistajat Mercedes Benz ja Hyundai tiedottivat kehittävänsä laseja hyödyntävää navigointijärjestelmää, etäkäynnistystä ja lukitusjärjestelmää (Tekniikka & Talous 29.10.2013; Helsingin Sanomat 30.10.2013; Digitoday 3.1.2014; It-viikko 7.1.2014). Lisäksi laseista kaavailtiin ratkaisua siihen, että kuljettaja ei nukahtaisi autoa ajaessa (Tietoviikko 14.1.2014). Uutiset esittelivät myös visioita älykodista, jossa esimerkiksi autotallin ja kodinkoneiden toimintoja ohjataan älylaseilla (Tietoviikko 26.3.2013; Digitoday 26.2.2014). Google sai jutuissa tilaa tutustuttaa ihmisiä tulevaisuudenkuvaansa, jossa älylasit ovat mullistaneet maksamisen ja ostosten tekemisen, kun laseille silmää iskemällä voi kuitata taksimatkan tai tehdä tilauksen näyteikkunassa huomatuista kengistä (Digitoday 18.12.2013). Älylasien suunniteltiin toimivan myös apuvälineenä avustamalla esimerkiksi kuurojen lasten perheitä viittomien opettelussa (Yle 18.9.2013), kääntämällä keskustelukumppanin puheen tekstiksi, jota kuulovammaisen on helppo seurata, tai kuvailemalla edessä olevia asioita näkövammaiselle (MPC 6.5.2014). Yhdessä villeimmistä sovelluksista Google Glass yhdistettiin eeg-laitteeseen ja laseja ohjattiin pelkkien aivoaaltojen avulla (Tietoviikko 10.7.2014).
Tässä merkityksellistämisen tavassa Google puhutteli kuluttajia esittelemällä laitetta keksintönä, joka antaa mahdollisuuksia ihmisten luovalle toiminnalle ja sen jakamiselle lähipiirin kanssa. Innokkaat hehkutukset alkoivat heti keväällä 2012, kun Googlen X-laboratorion johtaja Sebastian Thrun julkaisi itse ottamansa valokuvan, jossa hän kieputtaa lastaan ilmassa – hetki, jonka taltioiminen oli mahdollista vain ilman käsiä käytettävän tekniikan avulla (Tekniikka & Talous 12.5.2013).
Lasit esiteltiin siis mahdollisuutena videokuvan reaaliaikaiseen siirtämiseen ja maailman esittämiseen yleisölle kuvaajan näkökulmasta välittömimmillään suoraan toisen käyttäjän Google-laseihin (Helsingin Sanomat 2.3.2013). Uudenlaisen käyttökokemuksen kuvailtiin syntyvän siitä, kun muihin tehtäviin on mahdollista keskittyä ilman teknisen laitteen käsin operoimisesta syntyviä keskeytyksiä (Tietoviikko 1.6.2013). Myös uuden teknologian kekseliäästä käytöstä tunnetun pornoteollisuuden edustajat pääsivät uutisissa innostuneina ääneen. He kuvailivat Google Glassin tarjoamaa mahdollisuutta uuteen katsomiskokemukseen, kun pornon ”katsoja pääsee ikään kuin osaksi tapahtumia” (Ilta-Sanomat 11.4.2013).
Teknologiajournalismista tuttu mullistusretoriikka toimi apuvälineenä Googlen oman arvostuksen kasvattamisessa ja aseman legitimoimisessa (Suominen 2003, 64). Yhtiö kutsui ihmisiä lasien pariin myös kertomalla laitteen ratkaisevan teknologian aiheuttamia ongelmia, erityisesti älypuhelinten käytöstä johtuvaa epäsosiaalisuutta (Digitoday 5.3.2013). Vuonna 2014 Glass-projektin keulahahmoksi palkatun Ivy Rossin mukaan Google Glassin tavoitteena on selvittää, ”voiko teknologia olla jotain, mikä vapauttaa meidät ja pitää meidät hetkessä sen sijaan, että ottaa meidät siitä ulos” ja ”auttaa meitä katsomaan ylös ja ympäröivää maailmaamme ja niitä ihmisiä, jotka jakavat sen kanssamme” (It-viikko 16.5.2014). Annettuna uutisissa otettiin Googlen ajatus siitä, että älylasit rajoittavat ruutuaikaa. Toisin sanoen toimittajat hyväksyivät hiljaisesti Googlen teknologisen solutionismin (Morozov 2013, 5) eli sen, että monimutkaiset sosiaaliset ongelmat voidaan ratkaista teknologian avulla yksinkertaisesti ja siististi.
Sen sijaan, että elektroniikkalehti MBnet olisi arvioinut Googlen määrittelemän ongelman ja siihen tarjotun ratkaisun, lehti kutsui suomalaisia kuluttajia tarjoamaan laseille paikan arkea helpottavana laitteena seuraavasti.
Tieto on nykyihmisen happea ja elämä on verkossa, mutta jatkuva koneiden äärellä istuminen on epäterveellistä. Kohta ei tarvitsekaan enää istua, sillä Google tuo älylasit nenälle suoraan silmien eteen, jolloin näyttö on koko ajan näkökentässä. (…) Katso ulos ikkunasta, niin näet lämpötilan. Näe ystäväsi milloin tahansa ja jaa heidän kanssaan näkymä, jonka itse näet – tai ikuista se puhekomennolla valokuvaksi. Anna lasien kertoa, mitä katua kävelet ja mihin päin pitäisi seuraavaksi kääntyä, jotta pääsisit suorinta tietä haluamaasi määränpäähän. (MBnet 5.4.2012)
MBnetin uutisessa älylaseja kuvataan keksinnöksi, joka ratkoo päätteen ääressä istumisesta johtuvia terveysongelmia ja tuo arkeen sujuvuutta ja tuottavuutta sekä helpottaa ihmisten välistä kanssakäymistä. Tämän lasit tekevät tuomalla niin arkiset tiedot kuin navigointiin liittyvät tietovarannot vaivattomasti saataville silmien edessä koko ajan sijaitsevalle näytölle sekä mahdollistamalla sen, että koetut hetket voi jakaa reaaliaikaisesti oman verkoston kanssa. Esimerkki havainnollistaa, että ruutuajan vähentämisen sijaan älylasit itse asiassa saattavat moninkertaistaa ajan, jona maailmaa katsotaan näytön läpi, mutta tätä ei uutiskirjoittelussa nostettu esiin.
Suomalaisten mediatekstien analyysi tekee epäsuorasti näkyväksi, että journalismi rakensi ja ylläpiti innostusta Googlen älylaseihin kansainvälisten journalististen julkaisujen vanavedessä. Kun Time ja Forbes nimesivät Googlen älylasit vuoden 2012 keksinnöksi, niin samaan aikaan suomalaisessa mediassa maalailtiin älylaseista tulevaa muotivillitystä (Tietoviikko 5.4.2012) ja ”seuraavaa isoa juttua” (Kaleva 5.7.2013). Lasit nostettiin teknologiamaailman halutuimmaksi ja kuumimmaksi tuotteeksi (Digitoday 28.3.2013, 18.4.2013), ja niiden kerrottiin olevan vahva signaali tulevaisuuden mobiililaitteiden mahdollisuuksista (Tietoviikko 1.6.2013). Koska älylasit olivat vain harvojen saatavilla Suomessa, niitä testanneet toimittajat olivat tärkeässä roolissa kuvaillessaan, miltä lasien käyttäminen tuntuu ja millainen merkitys niillä on keksintönä. Keskeneräisyyttä ja puutteita tärkeämpää laseja testanneille toimittajille olivat Google Glassin mahdollisuudet kuvaamiseen ja tiedon näkyviin tuomiseen tavalla, joka ei ole yhtä välitöntä ja helppoa millään toisella laitteella (Tietokone 20.6.2013; myös Helsingin Sanomat 25.5.2013; Digitoday 27.6.2013; Kaleva 5.7.2013).
Kirjoittelu ruokki uuteen laitteeseen liittyvää intoa kertomalla myös kokeilijoiden innostuneista ja ylistävistä kokemuksista ja heidän uskostaan siihen, että Google-lasit korvaavat älypuhelimen (Tietoviikko 28.4.2013, 13.6.2013; Ylex 13.6.2013). Uutisissa herkuteltiin toistuvasti teknologiaguruksi kutsutun Robert Scoblen sitaatilla, jossa tämä totesi älylaseja kaksi viikkoa käytettyään, että ”tästä eteenpäin en ikinä elä päivääkään ilman näitä (tai kilpailijoita). Laite on niin merkittävä” (Tietoviikko 28.4.2013). Ohjelmistoyrittäjä Julián Beltránin kuvaus siitä, miten lasit riisuttuaan ”tuntuu kuin menettäisi yhden aistin” (Tietoviikko 13.6.2013) vahvisti käsitystä uuden laitteen käänteentekevyydestä. Lisää ilmaa kuplaan puhallettiin uutisissa, joissa kerrottiin laseja testaavista yrityksistä ja ammattiryhmistä. Eri maissa älylasien ammattikäyttöä kokeilivat lääkärit, ensihoitajat, sotilaat, poliisit, lentoemännät, junien lipuntarkastajat, pankkivirkailijat, pysäköinninvalvojat, myyjät ja varastotyöntekijät. Suomessa Verkkokauppa.comin toimitusjohtaja toivoi lasien ”aivan uudenlaisen lähestymistavan” tehostavan myymälässä tapahtuvia toimintoja (Mobiili.fi 19.6.2013), ja Tampereella pysäköinninvalvontaan suunnitellun sovelluksen uskottiin nopeuttavan ja helpottavan parkkimaksujen valvomista (Aamulehti 1.12.2014).
Kohtuuhintaisen kuluttajatuotteen odotus
Toisessa keskeisessä merkityksellistämisen tavassa toimittajat kutsuivat lukijoitaan kanssaan odottamaan kohtuuhintaisen kuluttajaversion julkaisemista ja myynnin alkamista Yhdysvaltojen ulkopuolella. Sen lisäksi, että maininnat tulevasta julkaisuajankohdasta ja laitteen hinnasta toistuivat lähes kaikissa mediateksteissä, noin neljäsosassa uutisista käsiteltiin erityisesti älylasien valmistamista, hankkimista ja markkinointia eli kuluttajatuotteeseen kytkeytyviä teemoja.
Älylaseja ei siis rajattu kirjoittelussa vain pienen teknologiasta innostuneen piirin laitteeksi, vaan niitä tehtiin tutuksi ”tulevaisuuden jokapäiväisenä kapistuksena” (Mobiili.fi 21.1.2014). Uutisten kuvituksena hyödynnetyissä Googlen markkinointivalokuvissa älylasien käyttäjät olivat niin tavallisen oloisia ihmisiä kuin nyt nuoret ja kauniit mallit voivat olla. Ehkä juuri huomion suuntaamiseksi pois teknonörtteihin liitetyistä mielikuvista, kuvissa olivat pääosassa eri etnisiä ryhmiä edustavat iloiset naiset. Heidän aurinkoisuutensa välitti kuvaa elämästä nauttimisesta ja älylasien siihen tarjoamista lisämahdollisuuksista, vaikka vain harvoin kuvissa lasit esitettiin erityisessä käyttökontekstissa. Voisikin todeta, että useimmat kuvat tutustuttivat ihmisiä lasien ulkonäköön ja ajatukseen niitä käyttävistä ihmisistä pikemmin kuin lasien käyttötarkoituksiin.
Googlen valikoimat ensimmäiset kokeilijat (explorers) saivat ostaa lasit 1500 dollarin hintaan keväällä 2013. Rajattu saatavuus lisäsi kiinnostusta laseja kohtaan. Uutisissa kokeilijoita kutsuttiin onnekkaiksi esimerkiksi otsikoimalla että ”[e]nsimmäiset onnekkaat asiakkaat saavat jo pian Google Glass -älylasit” (Mobiili.fi 11.4.2013). Tässä tutuksi tekemisen tavassa kiinnostusta pienen yhdysvaltalaisen kehittäjäjoukon koekäyttämää laitetta kohtaan viritettiin nimenomaan odotusta rakentamalla: kaikille tarjolla olevan kuluttajaversion markkinoille tulon vakuuteltiin tapahtuvan lähitulevaisuudessa. Odotusta ylläpidettiin siitäkin huolimatta, että lähitulevaisuus lykkääntyi useasti siirtyen eteenpäin yhteensä noin kahdella vuodella. Uutisissa arvioitaan tulevasta julkistuksesta pääsivät esittämään Googlen lisäksi yhtiötä lähellä olevat tahot ja yhdysvaltaiset toimittajat. Kun laseista kerrottiin julkisuudessa ensimmäisen kerran, Google lupasi niiden tulevan kauppoihin vielä saman vuoden aikana. Seuraavaksi julkaisun ajankohdaksi ennustettiin vuotta 2013, sitten vuoden 2014 alkua ja lopulta vuoden 2014 loppupuolta. Markkinoille tulon ajankohdasta Euroopassa ei esitetty missään vaiheessa edes luotettavia ennusteita.
Uutiset perustuivat Googlen kertomiin tietoihin ja yhdysvaltalaisten toimittajien uutisiksi nostamiin yksityiskohtiin Googlen julkaisemista videoista, verkkosivuille ja sosiaaliseen mediaan tehdyistä päivityksistä sekä viranomaisille jätetyistä asiakirjoista. Näin luotiin vaikutelmaa laitteen kehitystyön etenemisestä ja kuluttajatuotteen julkaisun lähenemisestä (YleX 16.4.2013; Mobiili.fi 29.10.2013, 13.11.2013). Lukijoille vakuuteltiin kehitystyön tehokkuutta kertomalla, että vaikka älylasit ”eivät ole vielä kaupoissakaan”, niihin kuitenkin ”kehitetään sovelluksia jo täyttä päätä” (Tietoviikko 12.3.2013). Linssivahvuuksien ja aurinkolasien julkaiseminen, kiinnostavina pidettyjen patenttien hankkiminen, yhteistyö tunnettujen kehysvalmistajien kanssa sekä älylasien kehitykseen rekrytoidut muotialan ammattilaiset ilmensivät uutisissa lasien valtavirtaistumista ja ”merkkipaalujen” saavuttamista tiellä kohti laitteen tuloa kauppoihin.
Uuden kuluttajatuotteen pariin puhuteltiin myös arvioimalla laitteen hintaa. Niin kokeilijat, toimittajat kuin analyytikotkin pitivät prototyypin 1500 dollarin hintaa kalliina eivätkä uutisten mukaan uskoneet tuotteen menestyvän, jos sen hinta ei laske. Keväällä 2014 lukijoille annettiin lisää aihetta pöyristyä ”suolaisena” pidetystä hinnasta, kun TechInsights laski Google Glassin komponenttien yhteishinnaksi vain 80 dollaria (Taloussanomat 2.5.2014). Tietokone (5.5.2014) kertoi Googlen kiistäneen jyrkästi laskelman paikkansapitävyyden, mutta kieltäytyneen lukujen julkisesta oikaisemisesta.
Usko Googlen kehitystyöhön ja siihen, että älylaseista tulee ”koko kansan huvia” oli suomalaismediassa niin vahva, että vasta uutistoimisto Reutersin marraskuussa 2014 julkaisema uutinen merkityksellisti älylasit hiipuvaksi ilmiöksi (Uusi Suomi 16.11.2014; MPC 17.11.2014; Helsingin Sanomat 17.11.2014; Tietoviikko 21.11.2014). Uutistoimisto oli haastatellut kuuttatoista sovelluskehittäjää, joista yhdeksän oli keskeyttänyt tai lopettanut ohjelmistojen kehittämisen älylaseille. Usko lasien markkinoille tuloon eli tämän jälkeenkin, kun uutisissa otettiin toiveikkaasti vastaan Googlen ilmoitus yhteistyöstä prosessivalmistaja Intelin kanssa ja uuden älylasiversion julkistuksesta vuonna 2015 (Mobiili.fi 1.12.2014). Kuitenkin jo tammikuussa 2015 yhtiö lopetti älylasien betaversion myymisen ja hyllytti älylasit toistaiseksi (Tietoviikko 16.1.2015). Googlen talousjohtaja Patrick Pichette kertoi muutamaa viikkoa myöhemmin, että älylaseja ei ole kuopattu kokonaan, vaan yhtiö uskoo edelleen laitteen potentiaaliin ja miettii strategiaansa uudelleen (Digitoday 30.1.2015). Lopettamisesta kertovien uutisten yhteydessä suomalaistoimittajat tekivät ensimmäistä kertaa kriittisempää kokonaisarviota älylasiprojektista. He toivat esiin, että ”Glass ei ole tuotteena ja konseptina vedonnut kuluttajiin Googlen odottamalla tavalla” (Mobiili.fi 16.1.2015) eikä ”aivan ilmeisesti niistä tullut mitään myyntimenestystä” (Digitoday 16.1.2015). Merkille pantavaa kuitenkin on, kuinka nopeasti pitkään ja suuresti hehkutettu uutuuslaite haudattiin ja kuinka media vaikeni sekä virhearviostaan laitteen tulevaisuutta koskien että omasta roolistaan innokkaana markkinoinnin äänitorvena (ks. myös Suominen 2003, 51).
Kotoistumista soraäänillä: ruma salakatselulaite
Pääosin innostuneesta ja odottavasta mediavastaanotosta huolimatta Google Glassia merkityksellistettiin uutiskirjoittelussa myös yksityisyyttä uhkaavaksi ja nörttimäiseksi laitteeksi, jota oli noloa käyttää. Noin neljäsosassa laseja koskevasta uutiskirjoittelusta pääosassa olivat laitteen epäilijät ja arvostelijat, minkä lisäksi nämä merkitykset liitettiin älylaseihin maininnanomaisesti lukuisissa eri aiheita käsitelleissä uutisissa. Tällöin suomalaisia lukijoita kutsuttiin arvioimaan, olisivatko he omassa arjessaan valmiita ”kulkemaan tietokone naamassa” (Helsingin Sanomat 2.3.2013) ja joutumaan julkisissa tiloissa lähes huomaamattomasti kuvatuksi (esim. MTV3 9.3.2013)
Huomionarvoista on, että älylasit herättivät torjuntaa ja niiden käytön rajoista keskusteltiin jo ennen kuin ensimmäiset kokeilijat saivat lasinsa. Uutisissa sai tilaa esimerkiksi seattlelaisen The 5 Point Cafen omistaja, joka halusi suojella asiakkaidensa yksityisyyttä ja kielsi älylasien käytön tiloissaan (MTV3 9.3.2013). MikroPC:ssa (15.4.2013) puolestaan kerrottiin NBC Newsin haastatelleen elokuvateattereiden, kasinoiden ja strippiklubien edustajia, jotka ilmaisivat huolensa mahdollisesta salakuvaamisesta. Yksityisyyden suojaan liittyviä huolia kommentoi myös Fox Newsin haastattelema asianajaja Aaron Messing. Hän epäili älylasien rikkovan Kalifornian, Washingtonin ja Nevadan lakeja, jotka ”kieltävät keskustelujen tallentamisen ilman jokaisen osapuolen suostumusta” (Tietoviikko 29.3.2013). YleX (28.3.2013) päästi ääneen Stop the cyborgs -ryhmän, joka herätteli keskustelua teknologian käyttämisen sosiaalisista ja fyysistä rajoista. Rajojen osoittamiseksi ryhmä oli suunnitellut älylasit kieltävän kyltin (kuva 4) sellaisiin rakennuksiin, ”joissa halutaan kunnioittaa yksityisyyttä”.
Näiden uutisten myötä kirjoittelussa alettiin toistuvasti mainita älylasien nostattamat huolet yksityisyydensuojasta. Huolipuheessa älylasien kamera- ja videokameraominaisuudet alkoivat merkitä mahdollisuutta salakuvaamiseen, verkkoyhteys tarkoittaa kuvatun sisällön jakamista saumattomasti kaikkien nähtäville ja niiden yhdistelmä merkitä ”karmivaa kykyä” nostaa ”esiin mitä tahansa tietoa kenestä tahansa kadulla tunnistetusta henkilöstä” (Digitoday 3.6.2013). Yksityisyyteen liittyvässä keskustelussa keskeisessä osassa oli ihmisen tunnistamiseen liittyvä teknologia, jonka sovelluksina tuotiin esiin muun muassa poliisinkin kiinnostuksen herättänyt kasvojentunnistus (YleX 29.5.2013; Tietokone 10.2.2014), ihmiset väkijoukossa erottava ”muotisormenjälki” (MTV3 12.3.2013) sekä kuvia ja tietokantoja toisiinsa yhdistävä NameTag (It-viikko 9.1.2014).
Googlelle annettiin uutisissa tilaa esittää kantansa yksityisyyteen liittyvissä kysymyksissä. Yhtiö sai muistuttaa huolestuneille, että tallentavaan kuvateknologiaan on ennenkin liittynyt pelkoja ja että 1800-luvun lopulla tavallisten kameroiden pelättiin tarkoittavan yksityisyyden loppua (Digitoday 21.3.2014). Toukokuussa 2013 uutisissa pääsi ääneen älylasien tuotepäällikkö Steve Lee, joka oli I/O-kehittäjätapahtumassa vakuutellut yksityisyyden olleen avainasia älylasien suunnittelussa (MTV3 18.5.2013). Google rauhoitteli huolestuneita kertomalla myös ohjelmistoon rakennetuista sosiaalisista vinkeistä, joiden tarkoituksena oli ehkäistä yksityisyyden loukkauksia. Tällaisia vinkkejä olivat: Älylasit ovat oletuksena pois päältä. Valo- ja videokuvaaminen laseilla vaativat napin painamista tai puhekomentoa. Näyttö sijaitsee silmän yläpuolella, jolloin muiden on helpompi nähdä, minne lasien käyttäjä katsoo. Kuvaaminen on kerrallaan mahdollista 10 sekunnin ajan. Akku ei kestä pitkäkestoista kuvaamista. (Digitoday 17.5.2013, 21.3.2014.) Toimittajat eivät vakuuttuneet Googlen rauhoitteluyrityksistä. He nostivat Googlen väitteiden rinnalle esimerkkejä siitä, miten huomaamaton kuvaaminen oli mahdollista pelkällä silmäniskulla ja miten Googlen sovelluskaupassa on aikaisemminkin jaeltu ”omituisia ja suorastaan haitallisia sovelluksia” (Digitoday 17.5.2013; MTV3 18.5.2013). Kun Google ilmoitti, että ”emme lisää kasvojentunnistusta tuotteisiimme ennen kuin meillä on vahva yksityisyyden suoja käytössä”, toimittajat toivat huolestuneina esille, että muotoilu implikoi kasvojentunnistuksen mahdollista lisäämistä laseihin myöhemmin (Digitoday 3.6.2013).
Soraäänet tekivät älylaseja tutuksi suomalaisille myös niiden ruman muotoilun ja sosiaalisen kömpelyyden kautta. Digitodayn uutisessa Forbesin toimittaja Erica Morphy julisti älylasien tekevän viehättävästäkin ihmisestä dorkan näköisen (Digitoday 3.6.2013). Laseja testannut Kalevan toimittaja Eija Mikkonen arvosteli laseja muotoilusta, joka sai ne näyttämään vahvasankaisilta urheilulaseilta ilman linssejä (Kaleva 5.7.2013). Turun Sanomissa ja Kalevassa lasien käyttäjää kuvattiin ”lähinnä tieteiselokuvasta karanneen näköiseksi” (Turun Sanomat 15.5.2013; Kaleva 15.5.2013), ja Helsingin Sanomissa (2.3.2013) älylaseja verrattiin Star Trekin tähtialusupseeri Geordi La Forgen käyttämään näkölaitteeseen. Älylaseja Hollywood Walk of Famella testannut Helsingin Sanomien toimittaja Pekka Pekkala (8.2.2014) taas rinnasti älylasit tyylirikkona bluetooth-kuulokkeeseen, vyölaukkuun sekä sukkien ja sandaalien yhdistelmään.
Älylasit tulivat soraäänten kautta tutuksi myös uutisissa, joissa kerrottiin kokeilijoiden kohtaamista ikävistä tilanteista ja solvauksen kohteeksi joutumisesta. Lasien kokeilijaa sakotettiin älylasien käyttämisestä autoa ajaessa, mutta myöhemmin sakot kumottiin oikeudessa, sillä ei voitu todistaa, että lasit todella olisivat olleet päällä ajon aikana (Digitoday 31.10.2013; MPC 17.1.2014). Samaa naista pyydettiin myöhemmin ottamaan lasit pois päästään lentomatkalla, koska säännöt kieltävät valo- ja videokuvaamisen ilman kohteiden suostumusta (Digitoday 28.4.2014). Mies poistettiin elokuvateatterista, koska häntä epäiltiin elektronisen nauhoituslaitteen käytöstä. Tarkastuksessa selvisi, että lasit eivät olleet elokuvaa katsoessa päällä. (Tietokone 22.1.2014.) Sittemmin Hollywoodin studioita edustava Motion Picture Association of America ja elokuvateatterien omistajien liitto National Association of Theatre Owners asettivat älylaseille käyttökiellon elokuvateattereihin osana sisältövarkauksien torjuntapolitiikkaansa (It-viikko 30.10.2014). Mainituissa uutisissa välittyi kuva maailmasta, joka ei ole vielä valmis älylasien kaltaiselle tekniikalle, lainsäädännöstä, joka laahaa perässä ja viranomaisista, joiden tiedot ja taidot eivät ole uusimman tekniikan tasalla. Samaan aikaan kyseenalaisen huomion kohteeksi joutuivat myös älylasien käyttäjät. Google Glass sai myös suomalaisissa uutisissa merkityksen lasiääliöiksi (glasshole) kutsuttujen röyhkeiden ja salakuvaamisesta syytettyjen käyttäjiensä kautta, ja siihen tarttui imago ”elämästä vieraantuneiden leikkikaluna” (Digitoday 7.12.2013) (vrt. varhaisten matkapuhelimen käyttäjien paheksunta 1990-luvulla, esim. Pantzar 2000, 117).
Talvella 2014 Google tarttui älylasien saamaan negatiiviseen huomioon ohjeistamalla ensin lasiääliöiksi nimitettyjä käyttäjiään hyvistä tavoista (YleX 19.2.2014) ja sitten julkaisemalla tiedotteen, jossa se pyrki murtamaan laseihin liitettyjä myyttejä (Digitoday 21.3.2014). Epäilyihin, että älylasit ovat haitallisia terveydelle ja erityisesti kehittyvälle näölle, Google vastasi asettamalla laitteen käytölle 13-vuoden ikärajan jo ennen kuin laseja alettiin myydä kokeilijoille (Tekniikka & Talous 3.5.2013). Googlen osallistuminen terveysvaikutuksista käytyyn julkiseen keskusteluun, ohjeiden antaminen käyttäjille ja ”myyttien” nimeäminen niiden murtamistarkoituksessa ovat havainnollisia esimerkkejä tavoista, joilla yritykset itse osallistuvat laitteitaan koskevien kulttuuristen rajojen vetämiseen itselleen mahdollisimman suotuisasti (ks. Gillespie 2010, 356).
Myös kokeilijat ja laseja testanneet toimittajat ottivat kirjoittelussa kantaa älylaseihin kohdistuneeseen kritiikkiin. He yrittivät tyynnytellä huolia, pelkoja ja vierauden tunnetta vertaamalla Google Glassia tuttuihin teknisiin laitteisiin ja niiden saamaan vastaanottoon jopa yhtiötä itseään ponnekkaammin (ks. esim. Digitoday 21.3.2014). Kokeilija Julián Beltrán kuvaa älylasien olevan vähän kuin iPhone vuotta ennen sen virallista julkistusta (Tietoviikko 13.6.2013). Yksityisyyshuolet Beltrán rinnastaa niihin, joita esitettiin 10 vuotta aikaisemmin, kun kännyköihin lisättiin kamera (Tietoviikko 13.6.2013). Tanja Aitamurto pohtii Helsingin Sanomien kolumnissaan (25.5.2013) outouden tunnetta, joka syntyy kun kadulla komentaa älylaseja. Hän vertaa tilannetta siihen, miten kummalliselta kadulla kännykkään puhuvat ihmiset aikoinaan vaikuttivat. Aitamurto herättelee lukijoita myös huomaamaan, kuinka pienestä hyppäyksestä älylasien kaltaiseen puettavaan teknologiaan siirtymisessä oikeastaan on kyse: teknologia kietoutuu jo nyt monien arkeen tiiviisti, kun unenlaatua mittaavan kännykän kanssa nukutaan ja sykemittarin kanssa urheillaan.
Mitä ei tehty tutuksi: älylasit osana teknologista infrastruktuuria
Hyvin pian sen jälkeen kun ensimmäiset kokeilijat saivat lasinsa, kahdeksan Yhdysvaltain kongressin jäsentä ja kuuden maan tietoturvaviranomaiset lähestyivät Googlea kirjeillä, joissa he tiedustelivat älylasien mahdollisista uhista yksityisyydensuojalle sekä Googlen tavoista kerätä ja tallentaa tietoja älylasien avulla (Digitoday 17.5.2013; Ilta-Sanomat 19.6.2013). Yhtiö vastasi tiedusteluihin, mutta kysyjät pitivät vastauksia pintapuolisina ja harmittelivat, että selvennykset tietojen keräämiseen ja tallentamiseen jätettiin antamatta (Digitoday 2.7.2013).
Näitä paria uutista lukuun ottamatta Google Glassia ei suomalaisessa uutiskirjoittelussa yhdistetty osaksi yrityksen luomaa teknologista infrastruktuuria. Uutisissa sivuutettiin myös se, että Googlesta on tullut elimellinen osa jokapäiväistä elämää eri puolilla maapalloa. Google.com on maailman useimmin vierailtu verkkosivusto (Alexa 2017), ja joka sekunti tehdään lähes 60 000 Google-hakua (Internet live stats 2017). Yritys on kasvattanut hakukoneella saamaansa vaikutusvaltaa vertikaalisella integraatiolla. Hakukoneiden lisäksi Googlen ekosysteemiin kuuluu selaimia, käyttöjärjestelmiä, laitteistoja sekä palveluita muun muassa verkkomainostamiseen, data-analytiikkaan, sisällön jakamiseen ja arkistointiin, kuvien käsittelyyn, navigointiin, kääntämiseen, uutisten seuraamiseen ja keskinäisviestintään (sähköposti, blogit, sosiaalisen median yhteisösivustot).
Kirjoittelussa ei nostettu esiin, mikä yhtiötä motivoi älylasien kehittämisessä tai millä tavoin uusi laite sijoittuu osaksi sen liiketoimintaa. Google on viime vuosina investoinut huomattavasti muun muassa miehittämättömiin lennokkeihin, robottiautoihin, kodin älylaitteisiin ja koneoppimiseen (Zuboff 2015, 78). Kaikki nämä panostukset ovat tukevoittaneet yrityksen otetta paitsi käyttäjien tiedoista myös heidän arjestaan. Älylaseja ei kuitenkaan liitetty osaksi Googlen pyrkimystä hankkia jalansijaa kasvavassa älyantureiden ja toisiinsa kytkeytyvien laitteiden verkostossa. Muiden verkottuneiden digitaalisten laitteiden tavoin Google Glass kerää jatkuvasti valtavia määriä dataa siitä, miten, missä ja kuinka kauan laitetta käytetään – huomattavasti suurempia datamääriä kuin mitä yksittäiset käyttäjät itse aktiivisesti tuottavat lähettäessään viestejä ja sähköpostia tai soittaessaan puheluita (Andrejevic ja Burdon 2015, 20). Automaattisesti kertyvää dataa Google hyödyntää tehdessään tulkintoja niin käyttäjästä kuin käyttäjän ympäristöstäkin, ja valitakseen sen perusteella, mitä asioita syöttää heille takaisin (Andrejevic ja Burdon 2015, 20; Fuchs 2014, 133; Kitchin 2014; van Dijck 2013, 37).
Kaikki tämä ruokkii dynamiikkaa, jossa maailma nähdään Googlen hiomien linssien läpi. Yrityksellä on kiistaton valta-asema siinä, millä tavoin 2010-luvulla etsimme, järjestämme ja ymmärrämme tietoa (Fuchs 2014, 127; Roberge ja Melançon 2015, 2; Vaidhyanathan 2012), ja Googlen kehittämät hakutoiminnot määrittelevät, millä tavoin verkon tietovarannoista tulee löydettäviä ja saavutettavia (Plantin et al. 2016, 12). Valitessaan ja järjestäessään sitä, mitä ihmiset näkevät, Googlella on mahdollisuus ensisijaistaa omia tuotteitaan ja päättää kilpailevien tuotteiden näkyvyydestä[3] (Plantin et al. 2016, 13: Rieder ja Sire 2014, 203). Älylasit tarjoavat tähän uusia mahdollisuuksia, sillä ne kiinnittävät käyttäjät uudella tavalla ja entistä tiiviimmin Googlen luomaan systeemiin. Tätä uutiskirjoittelussa ei kuitenkaan nostettu esille. Googlen älylaseja koskevia kansainvälisiä diskursseja tutkineet Jonathan Roberge ja Louis Melançon (2015, 10) ovat kuvanneet havainnollisesti, kuinka älylasien avulla Google pystyy tallentamaan ääntä ja kuvaa tavalla, jossa yhä vähemmän jää valvonnan ulkopuolelle. Kattavampien datavarantojen avulla yhtiöllä on mahdollisuus parantaa palveluiden laatua, millä puolestaan on mahdollista houkutella lisää datan lähteenä olevia käyttäjiä. Samaan aikaan Googlen jatkuvasti laajenevat tietokannat tarkoittavat entistä vankempia ja älykkäämpiä algoritmeja, joiden teknisistä yksityiskohdista ei hiiskuta liikesalaisuuksiin vedoten. Näin älylasit ovat mukana rakentamassa teknistä ympäristöä, jota käyttäjän on yhä vaikeampi ymmärtää.
Älylasien kytkeytyminen Googlen liiketaloudelliseen toimintaan ohitettiin myös kansainvälisessä uutiskirjoittelussa, johon suomalaistoimittajat kirjoittelussaan vahvasti nojautuivat. Esimerkiksi Googlen ilmoitus olla sisällyttämättä älylaseihin mainoksia ei herättänyt pohdintaa siitä, miten yhtiö aikoo hyötyä laitteestaan taloudellisesti, kun se hylkää pääasiallisen tulonlähteensä. Roberge ja Melançon (2015, 10) ovat tulkinneet Googlen älylaseja käsittelevässä kirjoittelussa toistunutta taloudellisen näkökulman ohittamista siten, että jopa kriittisimmille kommentoijille kysymys oli liian teoreettinen ja hypoteettinen. Tämä herättää kysymyksen siitä, keille ylipäätään olisi voitu antaa uutisten esityksellisessä tilassa ääni datan keräämiseen ja Googlen liiketoimintaan liittyvien kriittisten arvioiden esittämiseen.
Ei liene liioiteltua väittää, että Google hyötyi konkreettisestikin siitä, että lukijoille ei tarjottu mahdollisuuksia pohtia tapoja, joilla uusi laite kytkeytyy tietojen keräämiseen ja hyödyntämiseen perustuvaan infrastruktuuriin. Näin ollen mediakin oli älylasien tapauksessa aktiivisesti vakiinnuttamassa ja normalisoimassa ajattelutapaa ja toimintamallia, jossa suuryritysten ei tarvitse tehdä tiettäväksi, millaisia teknisiä ratkaisuja ja mitä tarkoitusta varten niiden laitteissa on (ks. Mager 2012, 779). Myös Roberge ja Melançon (2015, 10) ovat panneet merkille, että teknologisen järjestelmän kasvava monimutkaisuus ja epämääräisyys nivoutuvat yhteen, ja että Google on ollut haluton keskustelemaan asiasta.
Algoritmien ideologiaa hakukoneiden kontekstissa tutkinut Astrid Mager on tehnyt samansuuntaisen havainnon joukkoviestinnän liittoutumisesta suurten teknologiatoimijoiden kanssa. Tämä on hänestä näkynyt niin kulutuskulttuuria vahvistavana uutisointina uusista tuotteista, palveluista ja niitä tuottavista yrityksistä kuin siinä, että vaihtoehtoiset teknologiat ja avoimet ohjelmistot ovat vain harvoin uutisten aiheena (Mager 2012, 779–780). Datan keräämisen sivuuttaminen uutiskirjoittelussa on merkillepantavaa sikälikin, että samoihin aikoihin kun ensimmäiset kokeilijat pääsivät testaamaan laseja, uutisissa käsiteltiin Edward Snowdenin paljastuksia Yhdysvaltain kansallisen turvallisuusviraston NSA:n systemaattisesta tietojen keräämisestä myös Googlen tietokannoista.
Loppupäätelmät: kotoistamisen politiikkaa
Uudelle kuluttajateknologialle on löydettävä paikka osana ihmisten olemassa olevaa laitearkea ja ihmiset on puhuteltava sen pariin. Mediatekstit ovat muun populaarijulkisuuden ohella tärkeitä uuden teknologian tutuksi tekemisessä jo ennen kuin laitteet ovat ihmisten hankittavissa. Analyysini esikotoistumisesta suomalaisissa Googlen älylaseja käsittelevissä uutisissa haki otetta siitä, miten uutta teknologiaa koskevien merkitysten tuottamiseen ja tarjottujen merkitysten arvioimiseen osallistuu useita toimijoita, jotka käyttävät erilaisia retorisia strategioita. Kaikki erilaiset merkitykset, joista osa toistuu useammin, osa harvemmin, osa vakiintuu ja osa jää taustalle, rakentavat uudesta laitteesta tuttua juuri tietynlaisella tavalla. Älylasien tutuksi tulemisessa diskursiivisen toiston kautta oli eri painotuksia, jotka elivät niin artefaktin kehittämisen kuin kansainvälisten uutis- ja blogikirjoitusten mukana.
Google Glassin tapauksessa älylasien kehittäjälle ja sille myötämielisille tahoille annettiin huomattavan paljon tilaa laitteen merkityksellistäjänä. Google toimi jutuissa aktiivisesti älylasien esittelijänä ja teki niitä tutuksi ratkaisuna ongelmiin, jotka se sai itse määreillä. Uutisten lukijoille tarjoiltiin erityisesti kuluttajan ja tulevan käyttäjän tulkinta-asemia. Toimittajien oma ja heidän median esitykselliseen tilaan nostamiensa ihmisten innostus Googlen älylasien mahdollisuuksista lähentelevät naistenlehdistä tuttua kosmetiikkajournalismia, jossa painopiste on uutuuksien hienouksissa ja analyyttisempaa otetta tai kritiikkiä esitetään vain harvoin. Median suosiollisella myötävaikutuksella jopa pienen piirin testikäytössä olevasta laitteesta voi syntyä ilmiö, joka mielletään kaiken kansan jokapäiväiseksi kapistukseksi ja jota herkeämättä odotetaan kauppoihin.
Sen lisäksi, että Googlen tavoitteena epäilemättä oli välittää mediankin kautta tietynlaista kulttuurista ymmärrystä uudesta tuotteesta, se epäilemättä pyrki tällä tavoin myös vaikuttamaan siihen, millaisen säätelyn kohteeksi laite joutuu. Esimerkit siitä, millä tavoin Google tarttui julkisuuteen nostettuihin huoliin älylasien haitasta kehittyvälle näölle tai mursi älylaseihin liitettyjä ”myyttejä”, osoittavat, kuinka aktiivisesti yritys seurasi laseista käytyä julkista keskustelua ja osallistui siihen määrittelemällä, mistä laitteessa oli kyse.
Älylaseja tutuksi tehneet soraäänet nostivat esiin erityisesti pelot salakuvaamisesta ja lasien rumasta ulkonäöstä. Tässä kotoistamisen tavassa yksityisyys määriteltiin asiaksi, joka rajoittuu ihmisten välisiin suhteisiin ja johon kohdistuvat uhat ovat seurausta ihmisten toiminnasta. Esittäessään älylasit mahdollisuutena käyttää Googlen eri palveluja, uutiskirjoittelu vaikeni siitä, miten lasit kytkevät käyttäjänsä tiiviimmin yhtiön ekosysteemiin. Älylasit toisin sanoen jätettiin kirjoittelussa paikantamatta siihen laajempaan sosiotekniseen maisemaan, jossa ihmisten jokapäiväisestä teknologiavälitteisestä toiminnasta kerätään näin dataa ja jossa täysin uudet sosiaalisen elämän alueet määrällistyvät.
Tutkimukseni tulokset tekevät näkyväksi, että perinteiseen joukkoviestintätutkimukseen juontuva ajattelu, joka lähestyy mediateknisiä laitteita vain niiden välittämien sisältöjen ja käyttömahdollisuuksien kautta, tuottaa hyvin rajoittuneen kuvan uudesta teknologiasta. Lisäksi tällaisessa ajattelussa huomiotta jää uusien (media)teknologioiden sosiokulttuurinen luonne että tavat, joilla journalistiset uutistekstit ja niiden tekijät osallistuvat teknologioiden arkistamiseen. Kun uusia mediateknisiä laitteita tehdään diskursiivisesti tutuksi teknologiayritysten ehdoilla, on vaarana, että ihmiset eivät vastaisuudessakaan ole perillä esimerkiksi siitä, mitä tietoja heistä kerätään, kenen kanssa tiedot jaetaan tai miten yritykset kerättyjä tietoja hyödyntävät. Journalismilla voisi olla tärkeä rooli tiedon ja ymmärryksen lisäämisessä yhä läpikotaisemmin teknologiavälitteisestä elinympäristöstämme. Suomalaisessa Google Glassia käsittelevässä uutisoinnissa toimittajat eivät kuitenkaan ottaneet tällaista roolia eivätkä siten tarjonneet ihmisille mahdollisuuksia arvioida nykyisiä sosioteknisiä rakenteita ja pohtia niiden erilaisiin intresseihin kytkeytyvää poliittisuutta. Päinvastoin, uutiskirjoittelu osallistui näiden rakenteiden häivyttämiseen ja näin pikemminkin muokkasi kasvualustaa toimintamallille, jota Googlen harjoittama datan kerääminen edustaa.
Lopuksi voidaan todeta, että erittelemäni Google Glassin tapaus osoittaa, kuinka merkittävä osa laitteen kotoistumista journalistisesti toteutuva esidomestikaatio saattaa olla. Digitoday (2.12.2014) tiivisti ilmiön merkityksen omalla tavallaan pohtiessaan älylasiprojektin kohtaloa suhteessa mediakirjoitteluun ja ihmisten mielikuviin:
Virtuaalilasien maine kun on mennyt piloille kuluttajien keskuudessa, vaikka he eivät ole edes nähneet sellaisia. Moni media on lytännyt Google Glassin epäonnistuneeksi kokeiluksi ennen kuin tuote on kerennyt varsinaiseen myyntiin asti.
Kiitokset artikkelin kommentoimisesta ja kehitysehdotuksista Seija Ridellille, Asko Lehmuskalliolle, Tapio Takalalle, Anna Rantasilalle, Esa Sirkkuselle sekä WiderScreenin toimituskunnalle ja kahdelle arvioijalle.
Andrejevic, Mark, and Mark Burdon. 2015. “Defining the Sensor Society.” Television & New Media 16(1): 19–36. doi: 10.1177/1527476414541552.
Aune, Margarethe. 1996. “The Computer in Everyday Life: Patterns of Domestication of a New Technology.” In Making Technology Our Own? Domesticating Technology into Everyday Life, edited by Merete Lie and Knut H. Sørensen, 91–119. Oslo, Stockholm, Copenhagen, Oxford, Boston: Scandinavian University Press.
Berker, Thomas, Maren Hartmann, Yves Punie, and Katie J. Ward. 2005. Introduction to Domestication of Media and Technology, edited by Thomas Berker, Yves Punie, Maren Hartmann and Katie J. Ward, 1–17. Berkshire: McGraw-Hill Education.
Bertel, Troels Fibæk. 2013. Mobile Communication in the Age of Smartphones. Processes of Domestication and Re-domestication. PhD diss., University of Copenhagen.
van Dijck, José. 2013. The Culture of Connectivity: A Critical History of Social Media. Oxford & New York: Oxford University Press.
Encheva, Lyuba, and Isabel Pedersen. 2013. “‘One Day …’: Google’s Project Glass, Integral Reality and Predictive Advertising.” Continuum: Journal of Media & Cultural Studies 28(2): 235–246. doi: 10.1080/10304312.2013.854874.
Fuchs, Christian. 2014. Social Media: A Critical Introduction. Los Angeles, London, New Delhi, Singapore, Washington: Sage.
Gillespie, Tarleton. 2010. “Politics of ‘Platforms’.” New Media & Society 12(3): 347–364. doi: 10.1177/1461444809342738.
Haddon, Leslie. 2003. “Domestication and Mobile Telephony.” In Machines that Become Us: The Social Context of Personal Communication Technology, edited by J. E. Katz, 43–55. New Brunswick: Transaction Publishers.
Haddon, Leslie. 2006. “The Contribution of Domestication Research to In-Home Computing and Media Consumption”. The Information Society 22: 195–203. doi: 10.1080/01972240600791325.
Haddon, Leslie. 2011. “Domestication Analysis, Objects of Study, and the Centrality of Technologies in Everyday Life.” Canadian Journal of Communication 36: 311–323.
Helle-Valle, Jo, and Dag Slettemeås. 2008. “ICTs, Domestication and Language-Games: A Wittgensteinian Approach to Media Uses.” New Media & Society 10(1): 45–66. doi: 10.1177/1461444807085326
Hyysalo, Sampsa, Torben Elgaard Jensen, and Nelly Oudshoorn. 2016. Introduction to The New Production of Users: Changing Innovation Collectives and Involvement, edited by Sampsa Hyysalo, Torben Elgaard Jensen and Nelly Oudshoorn, 1–42. New York & London: Routledge.
Kitchin, Rob. 2014. The Data Revolution: Big Data, Open Data, Data Infrastructures and Their Consequences. London, Thousand Oaks, New Delhi, Singapore: Sage.
Lehtonen, Turo-Kimmo. 2003. “The Domestication of New Technologies as a Set of Trials.” Journal of Consumer Culture 3(3): 363–385.
Morozov, Evgeny. 2013. To Save Everything, Click Here: The Folly of Technological Solutionism. New York: PublicAffairs.
Oudshoorn, Nelly, and Trevor Pinch. 2003. “How Users and Non-Users Matter.” In How Users Matter. The Co-Construction of Users and Technology, edited by Nelly Oudshoorn and Trevor Pinch, 1–25. Cambridge & London: The MIT Press.
Pantzar, Mika. 1996. Kuinka teknologia kesytetään. Kulutuksen tieteestä kulutuksen taiteeseen. Hämeenlinna: Hanki ja jää.
Pantzar, Mika. 2000. Tulevaisuuden koti. Arjen tarpeita keksimässä. Keuruu: Otava.
Peteri, Virve. 2006. Mediaksi kotiin: Tutkimus teknologioiden kotouttamisesta. Väitöskirja. Tampereen yliopisto.
Pinch, Trevor J., and Wiebe E. Bijker. 1984. “The Social Construction of Facts and Artifacts: Or How the Sociology of Science and the Sociology of Technology Might Benefit Each Other.” In Technology and Society: Building Our Sociotechnical Future, edited by Deborah G. Johnson and Jameson M. Wetmore, 107–140. Cambridge: MIT Press.
Plantin, Jean-Christophe, Carl Lagoze, Paul N. Edwards and Christian Sandvig. 2016. “Infrastructure Studies Meet Platform Studies in the Age of Google and Facebook.” New Media and Society, first published online August 4, 1–18. doi: 10.1177/1461444816661553.
Petri Raivio. “Google sai EU:lta miljardisakot markkina-aseman väärinkäytöstä – ohjasi käyttäjiä omaan verkkokauppapalveluunsa.” Yle 27.6.2017. Viitattu 21.8.2017. https://yle.fi/uutiset/3-9691961.
Ridell, Seija. 1994. Kaikki tiet vievät genreen: Tutkimusretkiä tiedostusopin ja kirjallisuustieteen rajamaastossa. Tampereen yliopisto. Tiedotusopin laitos. Julkaisuja A: 82.
Ridell, Seija. 2009. ”Maankäyttöpeliä uutistilassa: Sanomalehti paikallisten kamppailujen julkisena areenana.” Teoksessa Julkisen tilan poetiikkaa ja politiikkaa. Tieteidenvälisiä otteita vallasta kaupunki-, media- ja virtuaalitiloissa, toimittaneet Seija Ridell, Päivi Kymäläinen ja Timo Nyyssönen, 240–269. Tampere: Tampere University Press.
Rieder, Bernhard, and Guillaume Sire. 2014. “Conflicts of Interest and Incentives to Bias: A Microeconomic Critique of Google’s Tangled Position on the Web.” New Media & Society 16(2): 195–211. doi: 10.1177/1461444813481195.
Roberge, Jonathan, and Louis Melançon. 2015. “Being the King Kong of Algorithmic Culture is a Tough Job after All: Google’s Regimes of Justification and the Meanings of Glass.” Convergence: The International Journal of Research into New Media Technologies, first published online July 2, 1–19. doi: 10.1177/1354856515592506
Rogers, Everett. 1983. Diffusion of Innovations (3rd edition). New York: Free Press.
Silverstone, Roger. 2006. “Domesticating Domestication: Reflections on the Life of a Concept.” In Domestication of Media and Technology, edited by Thomas Berker, Maren Hartmann, Yves Punie & Katie J. Ward, 229–248. New York: Open University Press.
Suominen, Jaakko. 2003. Koneen kokemus. Tietoteknistyvä kulttuuri modernisoituvassa Suomessa 1920-luvulta 1970-luvulle. Tampere: Vastapaino.
Suominen, Jaakko. 2009. ”Johdannoksi: netin kulttuurihistoriaa.” Teoksessa Funetista Facebookiin. Internetin kulttuurihistoria, Petri Saarikoski, Jaakko Suominen, Riikka Turtiainen ja Sari Östman, 7–22. Helsinki: Gaudeamus.
Suominen, Jaakko. 2013. ”Johdanto: sosiaalisen median aika.” Teoksessa Sosiaalisen median lyhyt historia, Jaakko Suominen, Sari Östman, Petri Saarikoski ja Riikka Turtiainen, 9–27. Helsinki: Gaudeamus.
Suominen, Jaakko, and Jussi Parikka. 2010. ”Sublimated Attractions.” Media History 16:(3), 319– 340, DOI: 10.1080/13688804.2010.483099.
Thrift, Nigel, and Shaun French. 2002. “The Automatic Production of Space.” Transaction of the Institute of British Geographers 27(3): 309–335.
Vaidhyanathan, Siva. 2012. The Googlization of Everything (and Why We Should Worry). Updated edition. Berkeley: University of California Press.
Wilkie, Alex, and Mike Michael. 2009. “Expectation and Mobilisation. Enacting Future Users.” Science, Technology, & Human Values 34(4): 502–522. doi: 10.1177/0162243908329188.
Zuboff, Shoshana. 2015. “Big Other. Surveillance Capitalism and the Prospects of an Information Civilization.” Journal of Information Technology 30: 75–89.
Viitteet
[1] Aineistossa mukana olevat julkaisut ja mukana olevien uutisten määrä suluissa: 3T (2), Aamulehti (2), Digitoday (60), Elektroniikkalehti (2), Helsingin Sanomat (6), Iltalehti (5), Ilta-Sanomat (10), It-viikko (12), Kaleva (4), MBnet (5), MikroPC (15), Mobiili.fi (25), MPC (25), MTV3 (13), Taloussanomat (4), Tekniikka & Talous (16), Tietokone (11), Tietoviikko (51), Turun Sanomat (1), Uusi Suomi (2), Yle (1) ja YleX (10).
[2] Keskimäärin jutut ovat 1331 merkin mittaisia lyhyimmän ollessa 470 ja pisimmän 9165 merkkiä.
[3] Kesällä 2017 Euroopan Unioni langetti yritykselle 2,4 miljardin euron sakot hakutulosten manipuloimisesta (Raivio 2017). Tuomion mukaan Google on ohjannut käyttäjiä omaan verkkokauppapalveluunsa ja syrjinyt muita verkkokauppiaita asettamalla heidät alemmas hakutuloksissa.
Tekstitelevisio on telekommunikaation historiassa todellinen elävä fossiili, joka on selvinnyt hengissä useammastakin teknologisesta kehitysharppauksesta. Tälläkin hetkellä tekstitelevisiolla on Suomessa oma vakiintunut käyttäjäkuntansa ja vaikka sen suosion lakipiste on jo ohitettu, mediana se tulee olemaan käytössä vielä useiden vuosien ajan. Tästä huolimatta tekstitelevision tai laajemmin määriteltynä teletekstin asemaa ja merkitystä mediavälineenä on tutkittu kansainvälisestikin yllättävän vähän.
Nordicomin julkaisema Teletext in Europe: From the Analog to the Digital Era (2016) pyrkii näiltä osin kokoamaan yhteen alan tuoreinta tutkimusta. Hallvard Moe (Bergenin yliopisto) ja Hilde Van den Bulck (Antwerpenin yliopisto) ovat toimittaneet artikkelikokoelman, jonka tarjoama kokonaiskuva eurooppalaisen teletekstin historiasta on kiinnostava ja moniääninen. Teos koostuu johdanto-osion ja yhteenvedon lisäksi kahdestatoista tapaustutkimuksesta, jotka maantieteellisesti kattavat yhdeksän Euroopan maata (Italia, Belgia, Sveitsi, Islanti, Suomi, Ruotsi, Norja, Kroatia ja Ranska). Kirjoittajat ja toimittajat ovat kaikki media- ja viestintätutkimuksen ammattilaisia.
Unohdetun median äärellä
Teos lähtee liikkeelle niistä lähtökohdista, jotka kaikki teletekstin tutkimuksesta kiinnostuneet jo tietävät: teleteksti on jossain määrin unohdettu media. Kiinnostuksen vähäisyyteen tarjotaan myös selviä vastauksia: teleteksti ei ole enää moneen vuosikymmeneen edustanut televisioteknologian kehittämishankkeiden kärkeä.
Miten ja miksi teleteksti on kuitenkin ollut mediana tärkeä ja suosittu? Teleteksti on ollut mukana vähintään kahdessa suuressa televisioteknologian kehityskaudessa ja elää nykyisin myös sosiaalisessa mediassa. Yksi vaihtoehto sille, miksi sitä ei ole kuitenkaan laajemmassa määrin käsitelty tutkimuksessa tai mediajulkisuudessa, johtuu epäilemättä teletekstin yksinkertaisuudesta ja helppokäyttöisyydestä – siinä ei ole keksintönä ja viestintävälineenä mitään ihmeellistä ja uutta. Vaikka tekniikka on toki parantunut ja tarjonta monipuolistunut, sitä käytetään edelleen periaatteessa täysin samalla tavalla kuin 1980-luvulla. Tekijät tuovat toisaalta esiin myös näkemyksiä, joiden mukaan tästä tehtävät tulkinnat eivät välttämättä ole näin yksipuolisia.
Teleteksti on sopinut erinomaisesti suodatettujen uutissisältöjen ja reaaliaikaisen tiedon, kuten urheilutulosten tai pörssikurssien, seuraamiseen. Sillä on ollut myös oma tärkeä funktionsa kuulovammaisten tekstityspalveluna. Monen vuosikymmenen ajan tekstitelevision napsauttamisesta päälle heti aamutoimien yhteydessä muodostui arkirutiini, jonka avulla kansalaiset pystyivät yhdellä silmäyksellä tarkistamaan, mitä maailmalla oli tapahtunut. Mediakanavana se on ollut helppokäyttöinen, luotettava ja ilmainen. Teos tuo esille kuitenkin teletekstin historian käänteitä, jolloin siitä on pyritty leipomaan myös aitoa vuorovaikutteista, kaikille kansalaisille suunnattua kommunikaatioalustaa.
Teleteksti eurooppalaisessa mediamyllerryksessä
Teos lähtee liikkeelle kolmesta näkökulmaltaan laajemmasta, pohdiskelevasta artikkelista. Edellä mainittujen yleisten lähtökohtien pohdinnan lisäksi mukana on Raquel Meyersin kirjoittama artikkeli teletekstistä taiteen ja itseilmaisun välineenä (ks. myös Meyersin kirjoittama tutkimuskatsaus tässä samassa numerossa) sekä Lars Nyren kirjoittama, fenomenologista teoriaa hyväksi käyttävä artikkeli kokemuksellisuuden rakentumisesta teletekstiteknologiassa.
Varsinaisen rungon muodostavat eri maista kootut tapaustutkimukset, jotka osoittavat millaisia kansallisia erityispiirteitä teletekstijärjestelmien kehitykseen on liittynyt. Kiitettävällä tavalla esiin nostetaan politiikan ja kulttuurin lisäksi myös sosiaaliset ja taloudelliset kysymykset. Hilde Van den Bulck käsittelee teletekstin merkitystä Belgian flaaminkielisellä alueella. Hän tarkastelee erityisesti sitä, miten politiikka on vaikuttanut teletekstin käyttöön ja miten sen asema on näkynyt laajemmin belgialaisen median ekosysteemissä.
Vastaavaa lähestymistapaa soveltaa myös Manuel Puppisin, Samuel Studerin ja Edzard Schaden yhteisartikkeli Sveitsin teletekstin historiasta, jossa poliittisten puolueiden ja mediayhtiöiden välinen taistelu vaikutti keskeisesti järjestelmän kehittymiseen eri vuosikymmeninä. Luca Barra ja Gabriele Balbi käsittelevät puolestaan Italian teletekstijärjestelmän vaiheita. Näkemyksessä korostuu erillisen ”italialaisen” lähestymistavan merkitys suhteessa teknologiaan, politiikkaan sekä kaupalliseen ja journalistiseen toimintaan. Mato Brautović ja Tena Perišin keskittyvät Kroatian tapaukseen ja osoittavat, miten Jugoslaviasta irtaantunut valtio järjesteli sodan varjossa oman teletekstijärjestelmänsä palvelemaan uuden hallinnon ja kansalaisten tarpeita.
Teoksen kiinnostavinta antia ovat teletekstin pohjoismaista historiaa käsittelevät artikkelit, jotka osoittavat, miten tärkeä ja suosittu media tekstitelevisio oli erityisesti 1990-luvulla. Hallward Moe, Ole J. Mjøs, Pernilla Severson ja Marko Ala-Fossi osoittavat miten ja miksi tekstitelevisiotoiminnasta kasvoi varsin merkittävä osa pohjoismaista yleisradiotoimintaa. Samalla esiin tuodaan myös, miten kaupalliset mediayhtiöt ovat hyödyntäneet tekstitelevisiota. Tutkijat osoittavat, että teletekstillä oli merkittävä, välillinen rooli digitaalisten viestintäjärjestelmien kehityksessä. Mukana on myös välähdyksiä supertekstitelevision kehitysvaiheista.
Ala-Fossin artikkeli on näiltä osin kiinnostavan kriittinen ja rehellinen esitys siitä, miten valtiovalta yritti 1990-luvun lopulla ja 2000-luvun alussa puoliväkisin lanseerata vuorovaikutteista digitelevisiota Suomeen. Jopa hieman surkuhupaisia käänteitä saanut hanke osoitti, miten poliittinen jääräpäisyys johti vain resurssien tuhlaukseen ja lopulta siihen, että epäonnistunut projekti haudattiin vähin äänin. Televisiosta ei saatu tietokonetta. Vanhanaikaisena pidetty tekstitelevisio sen sijaan selvisi hengissä vuosituhannen vaihteen mediamyllerryksistä.
Vuorovaikutteisen digitelevision tapauksessa pääsee usein unohtumaan, että vastaavantyyppistä ratkaisua yritettiin myös 1980-luvulla analogisen television valtakaudella. Teoksen artikkeleissa sivutaan useassa kohdin näitä videotekstijärjestelmiksi (videotex) kutsuttuja palveluja, joista piti tulla korkealentoisimpien visioiden perusteella joka kodin kuningasmedia viimeistään 1990-luvulla. Pääsääntöisesti kaikki Euroopassa lanseeratut palvelut olivat liiketaloudellisesti epäonnistuneita ja ne kuolivat 1980-luvun loppuun mennessä. Tähän oli kuitenkin olemassa yksi erittäin merkittävä poikkeus: Ranskan valtion tukema Minitel. Lyombe Ekon artikkeli Minitel-järjestelmän historiasta luo erinomaisen kokonaiskuvan Ranskan keskusvaltaisesta mediapolitiikasta. Minitel lanseerattiin nimenomaan ranskalaisena vastaiskuna angloamerikkalaista mediavaltaa vastaan. Miljardiluokan satsausten ansiosta Ranskan koteihin hankittiin miljoonittain Minitel-päätteitä, jotka toivat ranskalaiset informaatiopalvelut kaiken kansan käytettäväksi. Minitel osoittautui varsin sitkeähenkiseksi ja France Télécom yritti väkisin tukea järjestelmää vielä 1990-luvun lopussa, kun Internet oli jo saavuttanut asemansa globaalina tiedon valtatienä. On hyvin mahdollista, että Minitel oli osasyy siihen, miksi kotitietokoneiden arkipäiväistyminen viivästyi Ranskassa: miljoonissa kotitalouksissa oli jo verkkoon kytketty ”kone” käytettävissä.
Kirjoittajat korostavat, että uudet mediat eivät noudata vakiintunutta diffuusiokehitystä, eikä uuden digitaalitekniikan tulo merkitse välttämättä vanhan median kuolemaa. Kirjoittajien näkemyksissä korostuu, että mediateknologian historiassa näkyy pikemminkin vanhoja, yhä jatkuvia kehityslinjoja, joiden jatkuvuus on yllättävän sitkeää. Yksi näistä on käyttäjien esiin nostamat näkemykset siitä, että meitä vastaan hyökyvän informaatiotulvan seasta nousee aina tarve suodattaa mediasisältöjä yksinkertaiseen ja luettavaan muotoon. Valtioiden omaksuman mediapolitiikan suuntaviivat ovat merkittävästi säädelleet kehitystä, mutta herkästi unohtuu, että varsinkin 1980- ja 1990-luvulla teletekstijärjestelmillä oli myös oma kaupallinen potentiaalinsa, jota myös hyödynnettiin systemaattisesti.
Vanhan median vahvuudet
Teletext in Europe: From the Analog to the Digital Era on hyvin tervetullut lisä niukkaan teletekstitutkimukseen. Artikkelien kriittinen ja historialähtöinen analyysi on virkistävää luettavaa ja osoittaa, millaisia yhtymäkohtia nykyisillä mediapoliittisilla linjauksilla on menneisyyteen. Tutkijoiden havainnot nostavat esille sen, miten nykyinen mediatutkimus noin yleisesti ja mediapolitiikka erityisesti keskittyvät liian paljon uudemman ja osittain vielä toteutumattoman digitaaliteknologian tarkasteluun. Teos on huolellisesti toimitettu, vaikka ajoittain lukija olisi kaivannut lisää kuvitusmateriaalia. Artikkelit tarjosivat myös minulle, joka olen teletekstin historiasta myös jonkin verran kirjoittanut, uutta tutkimustietoa: mainittakoon esimerkiksi aikuisviihdepalveluiden merkittävä rooli kaupallisina toimijoina. Havainnot tarjoavat mielenkiintoisia, laajempia vertailukohtia tietoverkkojen kulttuurihistoriaan. Aloin itse pohtia myös teletekstin linkityksiä ”esi-Internetinä” tunnettuihin BBS-purkkeihin, joista teoksessa on useita mainintoja, vaikka asiaa ei sinällään laajemmin käsitellä.
Suurten historiallisten linjojen tarkastelu nostaa esille myös teoksessa esitetyn kysymyksen teletekstin tulevaisuudesta. On selvää, että tekstitelevision suosio on viimeisten seitsemän vuoden aikana tippunut tasaisesti. Esimerkiksi Suomessa palvelun käyttäjäprofiili on keski-ikäistynyt eivätkä nuoret enää palvelua laajemmassa määrin käytä, vaikka samantyyppisiä applikaatioita on toki lanseerattu sosiaalisen median puolelle. Suomen Yleisradiossa tekstitelevision asema on selvästi uhattuna. On mahdollista, että jossain vaiheessa tekstitelevisiosta tulee retroteknologiaa, hieman samaan tapaan kuin on käynyt esimerkiksi Commodore 64:n kaltaisille kotitietokoneille.
Teletext in Europe: From the Analog to the Digital Era kuitenkin osoittaa, että vielä tällä hetkellä teleteksti ei ole todellakaan kuollut media. Suodatetut sisällöt, luotettavuus ja reaaliaikaisuus – ominaisuudet jotka selittävät median harvinaisen pitkää elinkaarta – vetoavat edelleen suureen yleisöön ja tarjoavat toimintamalleja myös tulevaisuuden mediakäytön kehittämiselle.
Olen historiantutkijana ja digitaalisen kulttuurin ammattilaisena perehtynyt teknologian kulttuurisen muutoksen tarkasteluun. Erityisalaani on ollut Suomen kotitietokoneharrastuksen varhaishistoria 1980-luvulta 1990-luvulle. Lisäksi olen perehtynyt myös tietoverkkojen kulttuurihistorian ja laajemmin mediahistorian tutkimukseen. Minua on konferensseissa vaivannut aina lievä yksinäisyyden tunne, varsinkin jos olen joutunut matkustamaan Suomen rajojen ulkopuolelle. Riippumatta siitä, onko konferenssin aiheena pelit ja pelitutkimus, mediahistoria tai vaikkapa teknologian historia, niin oikealta tuntuvan paneelin tai session etsiminen on usein tuskastuttavaa. Käsiteltävät paperit ja puheenvuorot ovat toki kiinnostavia, mutta usein en oikein tunne olevani ”kotona”. Tutkijakollegat Suomessa ovat varmasti ainakin joskus törmänneet näihin samoihin tunteisiin. Siksi oli ilahduttavaa osallistua viimeinkin konferenssiin, jossa kaikki paperit käsittelivät juuri niitä aiheita, joista olen itse kiinnostunut. Zürichin yliopistolla maaliskuun lopussa järjestetty “Home Computer Subcultures and Society Before the Internet Age” antoi minulle juuri tällaisen ainutkertaisen kokemuksen: ainutlaatuisen ja rehellisen yhteenkuuluvuuden tunteen.
Sveitsin SNF:n ja ZZF:n myöntämän rahoituksen turvin järjestetty kaksipäiväinen konferenssi kokosi kansainvälisen ja asiantuntevan tutkijayhteisön 1980- ja 1990-luvun kotitietokoneharrastuksen kansainvälistä historiaa käsittelevien tutkimusaiheiden äärelle. Pääosa tutkijoista tuli Euroopasta ja mukana oli myös pari tutkijavierasta Yhdysvalloista. Konferenssin pääpaikkana toimi vanha ja komea tähtitorni, Collegium Helveticum. Merkittävän osan konferenssin järjestelyistä hoiti Gleb J. Albert Zürichin yliopistosta. Konferenssin erinomaiset aloitus- ja lopetuspuheenvuorot hoiti Jürgen Danyel (Zentrum für Zeithistorische Forschung Potsdam).
Konferenssin aikana huomattiin, miten kotitietokonekulttuurin kansalliset tapaustutkimukset liittyivät laajemmin niiden kansainvälisiin kehityslinjauksiin. Keskusteluiden aikana myös havaittiin, millaisiin lähdekriittisiin ongelmiin tutkijat joutuivat, kun he analysoivat kulttuuria, johon he olivat myös harrastajina kuuluneet. Toisaalta harrastustaustasta on epäilemättä hyötyä hahmotettaessa harrastuksen eri osailmiöihin liittyviä yksityiskohtia tai vaikkapa kieltä, joka ei avaudu helposti ulkopuolisille. Historioitsijan rooli jää tässä suhteessa mielenkiintoiseksi ”sillanrakentajaksi” teknologisen harrastuneisuuden ja asiantuntijuuden sekä tieteellisen maailman väliin. Toinen esiin nostettu kysymys oli tutkijakunnan ilmeinen miesvaltaisuus, jolle oli toki löydettävissä ymmärrettäviä historiallisia syitä: 1980- ja 1990-luvulla kotitietokoneet olivat varsin maskuliininen harrastus. Tästä huolimatta paikalla oli kyllä ilahduttavasti naistutkijoita esittämässä kriittisiä näkemyksiä tutkimuksen varjokohdista ja puutteista.
Kaksi voimakkaasti esiin noussutta käsitettä liittyivät ”krakkereiden” ja ”hakkereiden” rooliin tärkeinä harrastusta kehittäneinä toimijoina. Osittain huumorin sävyttämissä puheenvuoroissa esimerkiksi pelipiratismin ja yleensä ”piraattiskenen” tai ”kräkkeriskenen” merkitystä peilattiin myös laillisuuskysymyksiin, mutta tutkijat olivat yhtä mieltä koko ilmiön kansainvälisestä merkittävyydestä. ”Hakkerien” tapauksessa käsitteen ongelmallisuus juontui kysymykseen siitä, miten ja millä tavalla harrastajat ovat halunneet määritellä itseään. Liian usein ”hakkerismia” käytetään tutkimuksissa eräänlaisena yleisterminä, jolloin sen käyttöä ei ole tarkasteltu riittävän kriittisesti. Historioitsijana ymmärrän kysymyksen myös niin, että turhan usein tutkimuksissa ei pureuduta riittävän hyvin alkuperäislähteisiin. Näin tehtävän ”kenttätyön” avulla pääsee myös tutustumaan siihen, miten harrastajien oma kielenkäyttö ja normit ovat kehittyneet eri vuosikymmeninä. Nykyisin tehtävät päätelmät ja luokitukset eivät tästä syystä välttämättä enää toimi kovin hyvin tai ne johtavat suorastaan virheellisiin tulkintoihin. Näihin liitettäviin metodologisiin pohdintoihin yhdistyivät myös näkemykset varsinaisten artefaktien, kuten ohjelmien ja laitteiden, ympärillä tehtävästä tutkimuksesta. Keskusteluiden merkittävänä jäsentäjänä toimi Springerin julkaisema ”Hacking Europe: From Computer Cultures to Demoscenes” (2014), johon kirjoittaneista tutkijoista hyvin moni osallistui konferenssiin.
Edellä esitettyihin kysymyksiin paneuduttiin esimerkiksi Canan Hastikin (Technical University of Darmstadt), Markku Reunasen (Aalto-yliopisto) sekä Gleb J. Albertin (University of Zurich) omissa esityksissä. Tietokonedemojen ohjelmointiharrastus eli demoskene nousi esityksissä myös suureen rooliin. Demoharrastajien rooli kotitietokonekulttuurin historiantutkimuksissa onkin ollut äärimmäisen tärkeä. Epäilemättä osasyy tähän on heidän keräily- ja dokumentointitoiminnassaan, johon on liittynyt myös merkittävästi perinnetietoisuutta. Demoskene yhdistetään tässä suhteessa melko saumattomasti myös ”kräkkiskeneen”. Tutkimuksellisesti vuosien ajan systemaattisesti kerätty Demoscene Research -portaali on hyvä esimerkki siitä, miten harrastuksen kautta noussut kiinnostus on kasvanut vakavaksi ja arvostetuksi tieteelliseksi julkaisutoiminnaksi. Demoskenestä juuri väitellyt Markku Reunanen pääsi hyvin tuoreeltaan esittelemään omia tutkimustuloksiaan.
Konferenssin kansainvälisesti kuuluisin osallistuja oli useista platform studies -julkaisuista tunnettu Nick Montfort (MIT), jonka esitys tietokoneiden ja kodin yhdistymisistä mainoksissa oli sopivan kevyt välipala laajempien tutkimusesitysten lomaan. Konferenssin ehkä mielenkiintoisinta antia minulle olivat Itä-Euroopan kotitietokoneistumista koskevat tapaustutkimukset. Julia Erdogan (Zentrum für Zeithistorische Forschung Potsdam) käsitteli Itä-Saksan hakkeripiirien toimintaa ja suhdetta länteen ennen Berliinin muurin murtumista ja sen jälkeen. Jaroslav Švelch (Charles University in Prague) valaisi suorastaan mikrohistoriallisella lähestymistavalla Tšekkoslovakian 1980- ja 1990-luvun ”hyperlokalisoituja” harrastajapelejä. Patryk Wasiak (University of Wrocław) puolestaan esitteli Puolan Amiga-skenen nousua ja siihen liitettävää ”brändiyhteisöllisyyttä”.
Oma esitykseni käsitteli perustutkimuksellisesta näkökulmasta Suomen BBS-harrastuksen kehitystä ja elinkaarta 1980-luvulta 2000-luvulle. Samassa paneelissa oli myös kolme muuta tutkijaa, jotka valaisivat BBS:n historiaa oman maansa näkökulmasta. Kevin Driscoll (University of Virginia) käsitteli Yhdysvaltojen BBS-harrastajien demografiaa tilastollisesta näkökulmasta. Matthias Röhr (Forschungsstelle für Zeitgeschichte in Hamburg) nosti esille Länsi-Saksan BBS-skenen merkitystä, erityisesti valtion tietoliikennepolitiikan ja talouden näkökulmasta. Beatrice Tobler (Swiss Open-Air Museum Ballenberg) tarjosi ajatuksia herättävän mikrohistoriallisen tapaustutkimuksen Sveitsin BBS-harrastuksen piirteistä 1990-luvun puolivälistä. Keskustelupuheenvuoroissa alleviivattiin, että BBS ja Internet elivät vuosien ajan rinnakkain ja verkot vaikuttivat monessa suhteessa toisiinsa.
Esityksissä ei pelkästään käsitelty kotitietokonekulttuurin syntyä harrastajien näkökulmasta, vaan mukana oli myös runsaasti viitteitä esimerkiksi poliittisten ja taloudellisten toimijoiden rooliin. Theodore Lekkasin ja Aristotle Tympasin (National and Kapodistrian University of Athens) omassa kontribuutiossa käsiteltiin Kreikan valtion kansallista mikrotietokonehanketta. Hanke ei ollut kovin menestyksekäs ja se haudattiin vähin äänin 1990-luvun alussa. Havainnoissa alleviivattiin jälleen, miten harrastajien ruohonjuuritason toiminta oli suhteessa huomattavasti onnistuneempaa.
Keksijöiden ja tiedemiesten rooli ei noussut kovinkaan vahvasti esille konferenssin aikana, mutta Daniela Zetti (ETH Zurich) avasi teemaa tapaustutkimuksella, jonka keskiössä oli sveitsiläinen tietojenkäsittelytieteilijä Niklaus Wirth ja hänen rakentamansa Lilith-työasema. Wirth oli mielenkiintoinen esimerkki tutkijasta, joka oli samaan aikaan tieteentekijä, harrastaja ja insinööri. Pelitutkimuksellinen aspekti nousi ehkä kaikkein vahvimmin esiin Ulf Sandqvistin (Umeå University) Ruotsin peliteollisuuden historiaa käsittelevässä paperissa. Demoharrastajien merkitys peliteollisuuden uranuurtajina tuli toki myös esiin. Sandqvist alleviivasi, että tilastojen valossa pelit eivät todellakaan olleet mitään voitollista liiketoimintaa, vaan raskaasti tappiolliset peliyhtiöt polttivat pääomaa käytännössä vuodesta toiseen. Esityksessä tuli lisäksi ilmi, että varsinkaan naiset eivät viihtyneet kovin hyvin peliyrityksissä ja siirtyivät mielellään muun IT-teollisuuden palvelukseen.
Konferenssi oli kaiken kaikkiaan hyvin antoisa, mutta työmäärältään raskas. Töitä tehtiin paikan päällä käytännössä aamusta iltaan. Ainoa järjestetty vapaa-ajan ohjelma oli Konstantin Stürzin ohjaaman ”The 8-Bit Philosophy 2 – The Good and the Bad Guys” -elokuvan ensiesitys kampusalueella. Pitkään jatkuneet keskustelut, joita jatkettiin iltaan asti, olivat erinomaisen konferenssin parasta antia. Päätössanojen jälkeen todettiin yleisesti, että oli äärimmäisen tärkeää nähdä tutkijoita, jotka muuten tunsimme pelkästään heidän kirjoitustensa kautta.
Tapahtuman ”priimusmoottorina” toiminut Gleb J. Albert totesikin, että konferenssi saattaa jäädä historiaan ensimmäisenä alan tutkijoiden kokoontumisajona, jolle epäilemättä saadaan jatkoa vielä tulevina vuosina.
World Science Fiction Convention on maailman vanhin toiminnassa oleva tieteiskirjallisuus-tapahtuma, joka järjestettiin ensimmäisen kerran vuonna 1939 Yhdysvalloissa. Yhdysvaltojen liityttyä toiseen maailmansotaan vuonna 1941 tapahtuman järjestämiseen tuli vuosia kestänyt tauko, mutta vuodesta 1946 alkaen Worldcon on järjestetty vuosittain. Helsinki voitti vuonna 2015 Spokanessa järjestetyssä 73. Worldconissa oikeuden järjestää 75. Worldcon-tapahtuma, ja tänä vuonna 9.–13. elokuuta järjestettiin Worldcon 75 Helsingin Messukeskuksessa.
Worldcon on järjestetty tähän mennessä neljällä eri mantereella ja yhdeksässä eri valtiossa, mutta tämä oli ensimmäinen kerta, kun tapahtuma järjestettiin Suomessa. Helsingin Messukeskus olikin tupaten täynnä kävijöitä ympäri maailmaa – viiden päivän aikana osallistujia oli yhteensä 10 000. Näin suuri yleisömäärä yllätti myös tapahtuman järjestäjät, sillä heti ensimmäisenä päivänä käytävät olivat tukossa ja jotkut ohjelmia varten valitut salit olivat tarpeeseen nähden liian pieniä. Onneksi tapahtuma tarjosi paljon ohjelmaa, ja vaikka tila saattoi olla lopussa yhdessä salissa, oli toisessa tai kolmannessa varmasti tilaa. Keskiviikon ja sunnuntain väliseen aikaan mahtui yli 900 ohjelmanumeroa: paneeleja, tapaamisia, luentoja, työpajoja, lukupiirejä, esityksiä ja akateemisia luentosarjoja. Tämän lisäksi tapahtumassa jaettiin vuosittaiset Hugo-palkinnot tieteis- ja fantasiakirjallisuuden ja muun fiktion saralla.
Hugo-palkinnot jaettiin ensimmäisen kerran 1953, ja vuoden tauon jälkeen on palkintoja jaettu siitä lähtien joka vuosi. Kategorioita oli alun perin vain yksi – paras romaani – mutta niitä on lisätty vuosien aikana. Tänä vuonna Worldconissa jaettiin yhteensä 17 Hugo-palkintoa sekä John W. Campbell -palkinto parhaalle uudelle kirjoittajalle.
Paras romaani
The Obelisk Gate, N.K Jemisin
Paras pienoisromaani
Every Heart a Doorway, Seanan McGuire
Paras pitkä romaani
The Tomato Thief, Ursula Vernon
Paras novelli
Seasons of Glass and Iron, Amal El-Mohtar
Paras liittyvä teos
Words Are My Matter: Writings About Life and Books, 2000-2016, Ursula K. Le Guin
Paras sarjakuva-albumi
Monstress, Volume 1: Awakening, Marjorie Liu, kuvitus Sana Takeda
The Expanse: ”Leviathan Wakes”, käsikirjoitus Mark Fergus ja Hawk Ostby, ohjaus Terry McDonough
Paras kustannustoimittaja, pitkät teokset
Liz Gorinsky
Paras kustannustoimittaja, lyhyet teokset
Ellen Datlow
Paras ammattilaistaiteilija
Julie Dillon
Paras puoliammattilaislehti
Uncanny Magazine
Paras fanzine
Lady Business
Paras fanikirjoittaja
Abigail Nussbaum
Paras fanitaiteilija
Elizabeth Legget
Paras fancast
Tea and Jeopardy, esittäjinä Emma Newman ja Peter Newman
Paras sarja
The Vorkosian Saga, Lois McMaster Bujold
John W. Campbell -palkinto parhaalle uudelle kirjoittajalle
Ada Palmer
Itse valitsin ohjelmaa, jota kotimaisten tapahtumien ohjelmistoista harvemmin löytyy. Andrew M. Butlerin luento Ex_Machina & Feminism kävi läpi kyseisen elokuvan feministisiä puolia ja puutteita, sekä tutustui tarkemmin sen kahteen merkittävimpään kirjalliseen lähteeseen, Ovidiuksen Pygmalioniin ja Charles Perraultin Sinipartaan. Ex_Machinassa luodaan tekijöidensä mielihalujen muovaama keinotekoinen nainen kuten Pygmalion teki, ja kuten Siniparralla, yhdellä henkilöistä on kirjaimellisesti luurankoja kaapissaan. Flying Carpets and Golems oli paneeli, jossa panelistit Nahal Ghanbari, Giti Chandra ja Cenk Gokce keskustelivat Lähi-idän ja Aasian kulttuurien esiintymisestä länsimaalaisessa mediassa. Vakavasta aiheesta huolimatta panelistit osasivat myös viihdyttää yleisöä. Panelistit esittivät hyvää, rakentavaa kritiikkiä elokuvia, tv-sarjoja ja sarjakuvia kohtaan, nostaen esiin positiivisia esimerkkejä Lähi-idän kulttuurien representaatiosta, kuten Marvelin supersankari Kamala Khanista.
Worldcon tarjosi myös kiitettävän määrän akateemisia luentoja. Worldcon Academic Track koostui yhteensä 19 sessiosta, joissa keskitettyyn vahvasti käsittelemään defamiliarisaation ja vieraantumisen teemoja. Sessioiden toimintaa jäsentäneitä kysymyksiä olivat mm. kuinka tieteiskirjallisuus tasapainottaa tätä ja tiettyä tieteellistä realismia, mitä työkaluja se käyttää defamiliarisaation luomisessa ja mikä on tasapaino ja dynamiikka vieraantumisen ja samaistumisen välillä tieteisfiktiossa? Itse olin paikan päällä kuuntelemassa vain kolmea sessiota, sillä aikani oli rajallinen ja näiden ohjelmien suosio oli myös huomattava. Parhaiten mieleen jäi Bo Petterssonin esitelmä Thousands of Years of Estrangement: On Riddling and Defamiliarisation as Deep-Seated Literary Techniques, jossa hän antoi vastaväitteen aiemmin esitetylle idealle, että defamiliarisaatiota on käytetty kirjallisuudessa vasta noin parisataa vuotta. Peterssenin mukaan tämä tarinankerronnallinen keino on ollut käytössä jo tuhansia vuosia arvoitusten ja lorujen muodossa, jossa tuttu asia (familiar) muutetaan tuntemattomaksi (defamiliar) sanaleikin kautta. Worldconin akateemiset luennot käsittelivät tieteisfiktiota ja sen kiemuroita hyvin tarkasti ja läpiluotaavasti.
Tapahtuma ei kuitenkaan ansaitse pelkästään kehuja. Tilaongelmat ja logistiset painajaiset vainosivat tapahtumaa pari ensimmäistä päivää, mutta isompi miinus oli se, mitä tapahtui torstaina. Worldconin Facebook-sivu ilmoitti, että larppi Home for the Old oli peruutettu valitusten vuoksi. Syynä valituksiin oli pelin oletettu sisältö: Home for the Old on tuotteliaan roolipelisuunnittelija Fredrik Bergin luoma liveroolipeli, jonka tarkoituksena on simuloida Alzheimer-potilaan muistojen katoamista vanhoilla päivillä. Tämän ohjelmalehdessä olleen kuvauksen muotoilu, kategorisointi tragikomediaksi ja närkästyneiden kävijöiden kiteytykset (”you are all in a old folks home, have Alzheimer’s, you’re one of your RPG characters, hilarity ensues”) (Montola & Stenros 2017) aiheuttivat vihaisen reaktion ja valituksia alkoi sataa. Lopulta Worldconin turvatiimi ja järjestäjät päättivät vetää ohjelman pois, ilman että ohjelman järjestävää tahoa oli konsultoitu aiheesta. Tätä päätöstä on jälkeenpäin kritisoitu monestakin syystä. Larpin järjestäjille ei annettu aikaa selittää oman pelinsä ideaa, valittajien asenteesta näkyi tietynlainen “anglo-amerikkalainen kolonialismin muoto” (Montola & Stenros 2017), jossa he määrittelevät sen mikä on oikein ja mikä ei, ja kuinka pohjoismaissa larpin asema taidemuotona on aivan eri tasolla kuin muualla. Näytti siltä, että kaikki popkulttuurin muodot eivät ole samalla viivalla aiheiden suhteen, ja ”esimerkiksi herkkien asioiden käsittely roolipelin muodossa voi olla loukkaavaa osalle” (Mäyrä 2017). Worldcon juhlisti tieteisfiktion eri muotoja elokuvista kirjoihin ja sarjakuviin, ja valitusäänien edessä taipuminen antoi huonon kuvan heidän käsityksestä liveroolipelien suhteen – varsinkin kun akateeminen puoli oli täynnä keskustelua defamiliarisaatiosta.
Itse olin mukana Worldconissa myös ohjelmanjärjestäjänä. Isännöin DC Comics- ja Marvel Comics -fanitapaamiset, joiden aikana keskustelimme vapaamuotoisesti fanituksemme kohteista. Näistä jälkimmäisessä oli enemmän osallistujia ja heistä monet olivat suomalaisia. DC Comics -tapaamisessa oli vähemmän väkeä, mutta osallistujien jakauma kansalaisuuden mukaan oli huomattavasti monimuotoisempi. Tästä hieman keskustelimmekin, ja tulimme lopputulokseen, että Marvelin sankarit ja tarinat ovat tällä hetkellä Suomessa huomattavasti suositumpia. Tietysti Marvel Cinematic Universen hyvin menestyneet elokuvat ovat tälle yksi syy, mutta Marvelin sarjakuvia on myös julkaistu Suomessa huomattavasti enemmän aina 1980-luvulta alkaen. Miksi DC Comics ei ole sitten saavuttanut täällä niin laajaa suosiota? Vetoaako meihin Marvelin maanläheinen ja tietyssä mielessä samaistuttavampi maailmankuva paremmin kuin DC:n jumalatarinat ja suuret skismat? Yllättävää oli myös se, kun DC-tapaamisessa kävimme läpi osallistujien suosikkihahmot vain kaksi nimesi Batmanin suosikikseen. Heistä toinen tarkensi fanituksen kohteekseen nimenomaan Adam Westin esittämän Batmaniin. Suomessa Batman on DC:n sankareista suosituin, ja arvelimme että tämä suosio juontaa samanlaiseen synkkyyteen meidän ja yön ritarin välillä. Fanitapaamisen järjestäminen oli hieno kokemus, jossa sai hieman nähdä erilaista fanikulttuuria ja tavata erilaisia faneja Suomen ulkopuolelta: DC-fanitapaamisessa oli kävijöitä Ruotsista, Norjasta, Espanjasta, Iso-Britanniasta ja Yhdysvalloista. Länsimaisen supersankarisarjakuvan tiivein fanikunta lienee yhä länsimaissa.
Worldcon 75 keräsi kuitenkin yleisöä ympäri maailmaa. Paikan päällä kartasta pystyi katsomaan, mistä kaikista maista oli väkeä saapunut paikalle. Kaukaisimmat matkustajat idästä olivat tulleet Uudesta-Seelannista, Australiasta, Japanista ja Indonesiasta, lännessä puolestaan Yhdysvaltojen länsirannikolta ja Perusta. Kun Helsinki oli ehdolla Spokanen äänestyksessä, oli huolena se, että tapahtuma jäisi pieneksi. Huoli oli turha: Helsingin Worldcon oli tähän mennessä toiseksi suurin. Worldcon järjestetään seuraavaksi San Josessa, Yhdysvalloissa, mutta toiveikkaat suomalaisfanit puhuvat jo tapahtuman paluusta Suomeen. Ja tämä on minun mielestäni hyvä tavoite: Worldcon 75 tarjosi kattavasti ohjelmaa tieteiskirjallisuudesta ympäri maailmaa, mutta mielestäni kotimainen näkökulma jäi hieman taka-alalle. Kotimainen fantasia, scifi ja jopa supersankaritarinat ovat nousussa tällä hetkellä, ja kenties tulevaisuudessa tapahtuman palatessa Suomeen voimme jatkaa keskustelua näiden aiheiden ääressä.
#Tampere2032!
Kirjoittaja on Turun yliopiston digitaalisen kulttuurin perustutkinto-opiskelija ja freelancer-elokuvakriitikko, joka aikoo palata Worldconiin heti, kun se on taas rapakon tällä puolella.