Der Würfel ist noch längst nicht gefallen…

von Ben

In der heutigen Inspiration wollen wir die Schiene der Selbstlosigkeit bereisen und unsere, sowie Eure Aufmerksamkeit auf musikalische Wegbegleiter unserer Entwicklung richten.

recording

Recording im Rahmen von Campus Records

In meiner Zeit an der HTWK Leipzig hatte ich persönlich die Freude und das Vergnügen, lange Zeit den Hauptverantwortlichen des Studentischen Hochschullabels Campus Records zu mimen. In kompletter Eigenverantwortung konnten dabei Studenten ihre Tabula Rasa des audiotechnischen Wissens selbst beschreiben, indem Bands gescoutet, angefragt, produziert und veröffentlicht wurden. Doch die notwendige Expertise ergießt sich nicht über Nacht, nur weil man die Hand des Mitarbeiters in den Kelch des Wissens taucht. Das Motto hieß: Workshops. In schweißtreibender Gemeinschaftsarbeit musste am geduldigen Werkstück Mikrofonierung, Routing und das generelle Know-How im Recording-Prozess an den Mann gebracht werden.

Doch nicht nur bei Campus Records, auch im Rahmen von Lehrveranstaltungen wurde ich in die weite Welt geschickt, um mal einen “strapazierfähigen Drummer” oder Sänger zu finden, der sich für die wissbegierigen Freunde des Tons hingibt. Rettendes Ufer des Klanges waren dabei immer die Jungs einer Band, die sich im Einzugsgebiet der Hochschule formiert haben: C.U.B.E. Fast alle Mitglieder kannte ich aus meiner Zeit an der Hochschule. Sei es nun als Mitglieder bei Campus Records, wissenschaftliche Mitarbeiter oder gar als Dozent – uns verband die Freude an der Musik, sowie Audiotechnik. Dabei entging mir ihr Werdegang keineswegs und aus kuscheligen und überschaubaren Gigs mit temporär zittriger Stimme, sind nun hervorragende Performances auch außerhalb des schattigen Umfelds der Hochschule geworden. cube

Ein guter Grund, die Inspiration für deren aktuelles Projekt zu nutzen. Denn nun wollen die Musiker ihr erstes Studioalbum mit der Magie des Crowdfundings realisieren. Dass solch ein Recordingprozess nicht von der Zahnfee finanziert wird, ist nicht nur den findigen Audiomenschen eines Projekts wie Campus Records klar und somit sollten Freunde von gepflegter Rockmusik aus Leipzig feuchte Ohren bekommen haben, wenn es darum geht, ehrliche Projekte zu unterstützen. Noch vier Tage habt Ihr Zeit, auf www.startnext.com/cube-rocks die sympathischen Wegbegleiter meines audiotechnischen Wirkens zu unterstützen und damit ein Stückchen dazu beizutragen, dass es Leute schaffen können, die es verdient haben.

Reis+ plant auch in Zukunft noch tolle Projekte von C.U.B.E. zu realisieren und ist gespannt, wie die Reise weitergeht. Hier könnt Ihr Euch das Pitchvideo gönnen, bei dem wir Körner den Jungs geholfen haben:

Red Star – fanmade Fallout Film

von Dominic

Die Videospiel-Community wächst seit einiger Zeit. Letzte Woche schrieb Ben über seine Erfahrungen mit Bethesdas neuem Titel Fallout 4. Die Welt von Fallout zeichnet ein düsteres Zukunftsszenario aus, nachdem ein Atomkrieg weite Teile der Welt zerstört hat, wie gemacht für beeindruckende Bilder – nicht nur aus dem Computer.

Der Regisseur Vincent Talenti erfüllte sich im Jahre 2013, zusammen mit seinem Freund und Kameramann Matt Ryan, einen kleinen Traum, als er es in Zusammenarbeit mit Machinima und Wayside Creations schaffte einen sehr erfolgreichen Kurzfilm, angesiedelt an das Fallout Universum, zu kreieren. Fallout: Nuka Break – Red Star (Veröffentlichung Sommer 2013) steht aktuell bei 1,4 Millionen Aufrufen auf Youtube (Stand Januar 2016) und kann auf IMDB eine Wertung von 8,1 vorweisen, was wertungstechnisch gleichauf mit Spielfilmprojekten wie Mad Max: Fury Road und The Big Lebowski ist.

Die Macher des Filmes können sich sogar damit rühmen kreativen Input von zwei Fallout-Entwicklern erhalten zu haben. Tim Cain und Chris Avellone wirkten am Film mit und halfen ihm noch besser an die Spielserie heranzupassen. Doch Red Star war nicht der erste Anlauf von Wayside Creations im Fallout Universum. Bereits im Jahre 2011 veröffentlichten sie Fallout: Nuka Break – einen weiteren groß gelobten Kurzfilm, auf den später eine gleichnamige weitere Webserie folgte. Red Star stellte dabei ein Bindeglied dar, welcher die Handlung von Staffel 1 und der danach folgenden Staffel 2 überbrückte. Bis zu diesem Tag können die Jungs von Wayside Creations auf über 6 Millionen Aufrufe innerhalb ihrer Fallout Geschichten zurückblicken.

Lange Rede, kurzer Sinn: Hier ist der Film.

Jeder darf nun von dem Film halten, was er möchte. Ich will ehrlich sein: Ich finde ihn ok, muss aber auch sagen, dass ich ihn stelleweise vom Handwerk sehr schwach finde. Auch inhaltlich gefallen mir viele Dinge nicht, weswegen ich mich persönlich sehr über die hohe IMDB Wertung wundere. Der Grund dieser Inspiration ruht viel eher daher, dass ich es sehr krass finde, dass solch ein Film es allein durch die Vermarktung über Machinima und über den Bezug zu der durchaus großartigen und viel gefeierten Videospielserie schafft, eine so große Fanbasis zu kreieren und zu halten. Über eine Millionen Aufrufe und knapp 10.000 Youtube Kommentare (die größtenteils darum betteln, dass ein weitere Teil produziert werden soll) sprechen da Bände. Besonders auch da ein Kickstarter Crowdfunding hinter den Produktionen steht, welches über die Jahre über 200.000 US-Dollar durch Gaben der Fans einnehmen konnte, sei hier nochmal darauf hingewiesen, wie wirksam die Community für Fanmade Filmprojekte sein kann. Jetzt aber zurück an die Konsole – Fallout 4 ruft.

Zwischen Log und Lin

Von Dominic

Da ich aufgrund eines Unfalles nicht während der Produktion am Set helfen konnte, und meine Kernkompetenzen ohnehin im Bereich der Postproduktion liegen, möchte ich Euch in der heutigen Inspiration einen kleinen Einblick in den Workflow der Postproduktion geben.

20120907-094652

Zwei BMCC waren über 12 Drehtage im Einsatz

Gedreht wurde mit zwei Blackmagic Cinema Cameras (sowie zusätzlich noch mit einer Blackmagic Pocket Cinema Camera). Auf der Formatseite hatten wir uns schnell für eine Aufnahme in DNxHD 185x und mit der logarithmischen Gammakurve entschlossen. Geschnitten wurde im Avid, dessen eigener Codec DNxHD ist, und so ein schnelles Einladen und gute Schnittperformance ermöglichte. Eine Raw-Aufnahme über 12 Drehtage hätte unsere Speicherkapazitäten und mein Editing Raid vermutlich an seine Grenzen gebracht. Außerdem sollte während des Schnittes alles in Online Qualität vorliegen und ein Arbeiten mit Proxys war nicht gewünscht. Dies ersparte mir zum späteren Zeitpunkt einen großen Teil des Conformings auf dem Weg in die Farbkorrektur und sorgte für bestmögliche Qualität während der Rohschnittzeit und den Abnahmen. Mit den Daten der 12 Drehtage machte ich mich dann ans Werk. Als mein eigener Schnittassistent galten meine ersten Tage, die noch während der Produktionszeit gearbeitet wurden, dem Anlegen, Gruppieren und sortieren der Drehmaterialien. Um das Sichten auf ein Minimum reduzieren zu können, arbeiteten wir schon am Set mit Hilfe von Cutterberichten, die mir im Schnitt alle Takes mit dem besten Spiel nannten und ich so schnell ins Schneiden übergehen konnte. Während der Schnittzeit ruhten alle Daten dabei mehrfach gesichert auf meinem Schnittplatz. Die Avid Media Files waren auf meinem gespiegeltem Raid untergebracht. Im Falle des Supergaus, dass zwei Festplatten gleichzeitig abschmieren sollten, hatte ich alles Rohmaterial im nativen Format auch noch auf einer Festplatte, um zur Not alles nachbatchen zu können. Und sollte dieser Festplatte etwas zustoßen, lag bei Martin ein Spiegel dieser Rohmaterial-Platte. Das Projekt war also sicher.

Der eigentlich Schnitt war dann eigentlich recht simpel. Alle Handlungen waren über Kennungen eingeteilt, um auch die Interaktivität einfach einordnen zu können und um eine Grundlage der Diskussion zu haben. Diese einzelnen Bilder waren dann in Avid Bins geordnet. Geschnitten wurden dann alle möglichen Interaktivitäts-Möglichkeiten, jeweils in separaten Sequenzen, die nach Datum sortiert vorlagen und so jederzeit zur Version des Vortags zurückgekehrt werden konnte. Da ich nur während der Produktionszeit Urlaub von meinem eigentlichen Job hatte, wurde die Schnittzeit in Nachtschichten absolviert, was den späten Release der Folgen größtenteils erklärt.

Nachdem die Folgen durch die Rohschnittabnahmen und den Feinschnitt durch waren, ging ein AAF Export mit allen Tonfiles, sowie ein Ansichts-Quicktime an Ben und in die Mischung. Ich machte mich zeitgleich an die Farbkorrektur.

DavinciResolve11thm

Davinci Resolve 11 – für die 12 hatte ich noch keine Zeit

 

Die Korrektur erfolgte dabei im Davinci Resolve. Größtenteils, weil es aktuell das beste Preis-Leistungsverhältnis darstellt, das auf dem Markt zu finden ist. Auch wenn es nicht meine erste Wahl der Gradingsoftware darstellt, so hat es mir doch schon gute Dienste geleistet. Das Conforming war in wenigen Stunden erledigt – Resolve konnte sich, dank Online Workflow, direkt auf die Avid Mediafiles verlinken, sodass nur eine AAF vom Schnitt nötig war, um alle Materialien online zu haben.

Da ich in meinem Job quasi täglich die Korrektur von Serien auf meinem Tisch liegen habe, war ich es gewöhnt schnell und zügig zu korrigieren.

wave_corner_001

Tangent Wave Panel

Mein bester Freund das Tangent Wave half mir dabei ungemein. Würde ich mir vorstellen, dass ich alle Korrektur mit der Maus und somit eins nach dem anderen korigieren müsste, so würde ich vermutlich heute noch an der Korrektur sitzen.

Breaking News stellt dabei ein verhältnismäßig “kleines” Projekt dar – was das Grading betrifft. Wo ich in meiner Firma pro Tag irgendetwas zwischen 400 und 600 Schnitte Material korrigieren muss, das sich auch noch aus verschiedenen Kameras zusammensetzt, bat mir Breaking News eine handvoll Sets mit gleichen Kameratypen und knapp 150 Schnitten pro Episode. Child’s Play.

Nichtsdestotrotz wollte ich einen Workflow fahren, der es mir ermöglich schnell und einfach Grades zu kopieren, einfach später kleinere Korrekturen zu erledigen und mich niemals vor das typische “Was hab ich denn in dem Node jetzt eigentlich gemacht”-Wundern zu stellen, wenn ich Tage später zurück an das Projekt gehen sollte.

Der klassische Node-Aufbau sah demnach für jeden Schnitt identisch aus und wurde nur in Spezialfällen erweitert.

basic_node_structure

Mein Standard Node Tree, der auf allen Einstellungen lag

 

Base: mein Baselayer (dessen Benennung aus dem Nucoda Filmmaster übernommen wurde) galt nur der Korrektur vor dem Look Up Table, und sollte jedes Clipping verhindern und für richtige Pegel sorgen.

Lumakey: Node zwei war mit einem soften Lumakey versehen und stellte eine Möglichkeit der Kompression von Schwärzen, oder Highlights dar, falls benötigt. Alles noch vor dem Lut, der die Wandlung von Log zu Lin als Aufgabe hatte. Dies ist ein toller Trick um 13 Blenden Log Material in 9 Blenden-Dynamik des Ausgabefarbraums zu pressen.

Contrast und Color: Der erste Node nach dem LUT war ausschließlich für die Korrektur der Luminanz vorgesehen, und der Color Node ausschließlich für die der Farben. Die Trennung in zwei Nodes ermöglichte es mir, nur die Luminanz-, oder Farbkorrektur zwischen Schnitten zu kopieren und leichte Vergleiche des Vorher/Nachher zu kontrollieren.

Glow: Abgerundet wurde mein Basis-Setup durch einen Layermixer, der über einen Highlight-Key einen Glow-Effekt auf das Bild legen konnte. Dieser wurde einfach über die Transparenz des Nodes nach belieben eingestellt.

Rambo_graded_1.28.1

Einstellung aus dem Ramboapproach der dritten Episode

Vignette: Meine Basis Vignette fand sich auf dem letzten Node vor und wurde bei Bedarf eingestellt, oder im Standard-Setup verwendet.

Pan and Scan / Blanking:  Die Positionsänderungen und die Letterbox-Balken für den Widescreen-Look kamen zum Schluss.

Im Großen und Ganzen konnte ich so in 30-40 Sekunden ein neues Bild korrigieren – sodass ich mit den Folgen in 1-2 Tagen durch war. Nur um dann natürlich wieder von vorne zu beginnen. Immerhin war dies keine meiner Serien, mit denen ich es auf Arbeit zu tun habe und die immer gleich aussehen sollen, und die Projete dementsprechend weniger komplex sind. Im zweiten Durchgang setzte ich deutlich mehr Masken, nahm mir mehr Zeit für jedes Bild, zog Keys und versuchte aus jedem Bild das beste rauszuholen.

Besonders die Verwendung von Filmprint Emulations LUTs kann hervorgehoben werden, wenn Fragen nach dem Look auftauchen sollten. Wohingegen die technisch korrekten LUTs vom Blackmagic Farbraum in den HD Standard Rec 709 wandeln, haben sie doch nicht den Charm von echtem Filmmaterial.

basic_LUT_Nicole_1.42.3

Christin mit Korrektur über den Standard LUT

 

graded_Nicole_1.42.2

Christin mit Korrektur über Filmprint LUT

Wohingegen die Standard LUTs einen sehr “videohaften” Look haben und übersättigt wirken, wissen die Filmstocks, wie Hauttöne am besten zur Geltung kommen und welche Gradation dem Ausbelichten auf Film am nähsten kommen.

Donna

oben: Log-Material unkorrigiert; links: Lut und Luminanzkorrektur; rechts: fertiges Grading

 

Die restliche Korrektur versuchte danach alles dem Hautton unterzuordnen. Die erste Korrektur galt immer dem Hautton, die folgendem den neutralen Extremen Schwarz und Weiß, und die letzten dann den Orten des Bildes die Korrekturen bedarfen.

Am Ende der Farbkorrektur galt es nur noch kleine VFX-Shots, wie Schüsse und Retuschen durchzuführen, alles zusammenzubauen und auf die Ergebnisse der Umfrage zu warten.

Falls Fragen zu gewissen Einstellungen, der Farbkorrektur, der Effekte, oder des Schnittes gibt, so schreibt uns auf Facebook, oder hier über die Homepage eine Nachricht. Ich bin gerne bereit tieferen Einblick zu gewähren und Dinge zu erklären. Immer her mit den Fragen!

Grüße,

Dominic

 

 

Und Gott sah alles, was er gemacht hatte und siehe, er musste vinen…  

von Ben

Dramatisch geht es in die aktuelle Inspiration – schwere Kost an einem grauen Oktobermittwoch. Vielleicht aber auch nur, weil man kein notwendiges Besteck hat, um dieses Häppchen an sozialkultureller Entwicklung in mundgerechte Stücke zu schneiden. Dabei ist es doch gerade die exquisite Küche, die mit kleinsten Portionen die voluminöse Kulinarik auf unsere Rezeptoren schmeichelt…

Ein Freund von mir zerschnitt Spaghetti in der Grundschule immer in effiziente Teigzentimeter. Was mich als Kind wunderte, da der Nudelteller vor allem deshalb Spass macht, weil man seine Gegenüber fast peitschenartig das Essen ins Gesicht schleudern konnte. Heute arbeitet er an seinem Doktor der Physik und  hatte vielleicht damals schon den Dreh raus, in dem er das Drehen gekonnt umging. Vielleicht benötigt der Mensch nur kleine Ausschnitte, kleine Häppchen des Alltags, um sich darin orientieren zu können. Keine Reizvöllerei, sondern abgepackte Essenzen von dem, was uns umgibt.

Schaut man sich die Entwicklung von sozialen Plattformen der Selbstinszenierung an, so könnte sich dieser Verdacht bestätigen. Die Bearbeitungsgeschwindigkeiten unserer Prozessoren schrauben die BPM des OST unseres Lebens gewaltig in die Höhe. Die Momente unserer Entwicklung springen von piano zu Splittercore. TwitterIch weiß nicht, ob dieser Remix mit der kommunikativen Kastration von twitter Einzug fand, jedoch zeigt sich im technisch gestützten Umgang zwischen Menschen die Notwendigkeit zur Beschränkung. Kritiker könnten meinen, die Beschränkung besteht hauptsächlich durch mentale Barrieren meinerseits, jedoch kommt keiner drumherum, die Eindampfung unseres kommunikativen Arsenals zu erkennen. Hashtags nehmen gesamte Sinneinheiten und Aussagen ab, Zeichengrenzen pressen jeden Gedanken in ein fast schon dadaistisches Gewand. Schrecken Teenager bei Kurt Schwitter zusammen, twittern sie ihren Unmut gegenüber der Lautmalerei in 140 Tastenanschläge voll zorniger Kaskaden aus Affenklammern und Rauten. WTF denkt sich der Außenstehende – geht ja GN.

Durch die Anforderung der multiplen Reizverarbeitung ist diese Einschränkung jedoch nur Coping, um Schritt zu halten. Wer die Signale nicht dekodieren kann, der steht nun mal auf dem Schlauch. Das war schon immer so – nur tröpfeln die Datenconfessionbear nicht aus dem engen Flaschenhals, sondern werden Kübelweise ausgeschüttet. Deal with it. Da kommt es nicht von ungefähr, dass komplette emotionale Befindlichkeiten empathisch globalzugänglich zu machen, indem man ein einziges Bild verwendet. Damit reicht ein Malaiischer Bär mit hängenden Mundminkeln aus, um Symptome einer depressiven Phase mit der ganzen Welt zu teilen. Und so steigt jeder auf die Zeichensprache ein. Kommunikatives Meme-ikri sozusagen.

Für mich findet die Portionierung mit vine.co ihren Höhepunkt. Hier finden die Nutzer nicht nur auf Basis des geschriebenen Wortes Möglichkeiten zur Raffung ihrer Gedanken, sondern können auch selbstgedrehtes Videomaterial in 6 Sekunden Clips packen und als Loop in die Welt husten. Oft dient eine Stopmotion-anmutende Nutzung dieser Bühne, um noch weitaus mehr symbolhafte Bilder in ihre Videos zu packen. In jedem Bereich (Kunst, Essen, OMG) funken damit 40 Millionen Nutzer täglich einen Code in die Welt, in der Hoffnung, am anderen Ende sitzen Menschen, die zur Dechiffrierung in der Lage sind. Hier ein Zusammenschnitt der als beste Vines diesen Monats eingeschätzte Beiträge. Man beachte: diese Videos stehen sonst isoliert als Loops zur Verfügung:

 

Vine ist ein perfektes Beispiel dafür, wie sich unsere Kommunikation im Zuge des technologischen Wandels geändert hat. Es reicht nicht mehr, nur simple Gedanken und Output zu generieren, sondern diese Dinge in eine Zeichensprache zu packen, die mit den Anforderungen der Zeitverdichtung unseres Alltags Schritt halten kann. Unabhängig jedoch vom Aha- und Ohoeffekt des schillernden Gewandes verbirgt sich dahinter jedoch all das triviale, was bereits vor 20 Jahren die Menschen beschäftigt. Das kann die Frage nach dem Sinn unserer Existenz, aber auch nach der perfekten Zubereitung eines Frühstückseis sein. Auch wenn der Titel dieses Beitrags anderes vermuten lässt: gut oder schlecht spielt hierbei nur eine untergeordnete Rolle, da jeder selbst einschätzen darf, wie viel er sich aus diesem Code holen muss, um glücklich zu sein.

Denn wie man an dieser Inspiration sehen kann: auch in viel Text passt wenig Aussage.

Das aber auch Kunst und kreative Herausforderung in wenige Sekunden gepackt werden können, beweisen die 5seconds Films (u.a. von Brian Firenzi, der durch seine Rolle als The Law in der Webserie Videogame Highschool dem ein oder anderen ein Begriff sein könnte).

 

Erste Einblicke in ‘Breaking News’ – Der offizielle Trailer ist da!

Liebe Freunde,

mit Stolz dürfen wir Euch heute den ersten offiziellen Trailer zu unserem Episodenfilm ‘Breaking News‘ präsentieren!
Am 27. November 2015 dürft Ihr dann Nick Rumbles spannende Suche nach seinem entführten Co-Moderatoren Steve dem Affen verfolgen. Jede folgende Woche erscheint dann eine neue Episode, deren Fortgang Ihr mitbestimmen könnt!

Aber zunächst jedoch:

Jo! Stativ Quo #2

von Dave

In einer der vergangenen Inspirationen habe ich über einige Möglichkeiten der Bildstabilisation berichtet. Die Verbindung zwischen Bediener und Kamera wurde dabei durch verschiedene Mechanismen gedämpft. Verwackelte Aufnahmen wie sie beim Rennen mit einer Kamera entstehen, konnten dadurch umgangen werden.

Nun wurde ich jedoch auf ein Kickstarter Projekt aufmerksam, welches eine völlig neue MöglBild_2ichkeit der Bildstabilisation bieten soll. Das Projekt nennt sich SteadXP – The Future of Video Stabilization . Es handelt sich um ein kleines Modul voller Elektronik und Sensorik, das direkt an der Kamera appliziert werden kann. Bei Spiegelreflexkameras erfolgt dies über die Aufnahme für Aufsteckblitze. Auch eine Version für die GoPro Hero Reihe soll erhältlich sein. Bei der Actionkamera kann das Modul einfach auf die Rückseite geklickt werden, wo sonst Zusatzakkus ihren Platz finden.

Die Sensorik des Moduls erfasst jede translatorische und rotatorische Bewegung bzw. Beschleunigung und zeichnet diese auf einem Speicher (SD-Karte) auf. Mit einem zugehörigen Softwarepaket muss das Videomaterial in der Nachbearbeitung mit den Sensordaten abgeglichen werden. Anhand der Beschleunigungen wird das Bild automatisch korrigiert.

Klingt relativ simpel, hat aber den Nachteil, dass das Videomaterial an den Rändern beschnitten werden muss. Trotzdem finde ich die Idee ziemlich geil und bin gespannt ob sich SteadXP auf dem Markt verbreiten wird. Gerade weil man kein sperriges Zusatzmaterial wie Stativ oder Gimbal mehr mit sich führen muss. Preislich soll das Modul wohl um die 200 bis 300 Euro kosten.

Mehr dazu gibt es hier!

Auf leisen Sohlen Videospielgeschichte geschrieben

von Ben

Und es war eine lange Reise, bis Hideo Kojima sein finales Meisterwerk der Metal Gear Reihe auf den Markt geschmissen kojimahat, um den Spieler ein letztes Mal vor die qualvolle Wahl zu stellen, langsam kriechend oder brutal ballernd die Burg zu infiltrieren. Aufmerksame „Inspirationsleser“ werden nun ahnen, dass ich hier wieder in Kindheitserinnerungen verfalle und ja – sie haben recht. Da Metal Gear Solid jedoch ein Stück weit Videospielgeschichte ist und nun vollendet wurde, wäre es wohl stark fahrlässig, hierbei nicht die vergilbten Seiten seiner eigenen Biographie aufzuschlagen, um klar zu machen, welche Bedeutung, welche Inspiration die Reihe für mich hat.

Wir schreiben das Jahr 1999, der Ort: Wernigerode (Harz). Die Schülerversion von mir liegt auf dem Boden des Hotelzimmers, vor ihr die aktuellste Ausgabe der Playstation Games ausgebreitet – Videospielmagazine hat man damals gekauft, um Informationen über das Medium, sowie aktuelle Spieledemos zu bekommen. Verrückte Zeiten. Was die fleißigen Redakteure über andere Games recherchiert haben, kann ich beim besten Willen nicht sagen, da meine zittrigen Hände nur die Seiten wälzten, auf denen pixelige Bilder und Impressionen von einem sogenannten „Metal Gear Solid“ abgedruckt wurden. Die Idee wirkte recht einfach: Ein hoch ausgebildeter Soldat/Agent namens Solid Snake soll eine feindlich übernommene Einrichtung auf Shadow Moses Island infiltrieren und die Gefahr des nuklearen Terrorismus‘ abwenden. Klar und simpel – es braucht halt immer den gewissen Experten, um den Untergang der westlichen Zivilisation zu verhindern.

mgs1coverWer die Spielreihe kennt, wird wissen, dass Kojima bei seinem ersten Gehversuch auf den Polygonplanken der Playstation diesen überschaubaren Plot mit vielen Twists, Verschwörungstheorien und der Prise an östlicher Fiktion und Überzeichnung aufbauscht und damit unwiderstehlich macht. In Zeiten, in denen Videospiele in der Masse maximal als Alltagsintermezzo mit zwei Buttons verstanden wurde, kreierte die erste populäre Version eines Action-Stealth-Spiels jedoch etwas Neues, etwas Großes. Metal Gear bestand dadurch zwar zu 60% aus Dialogen, die aufgrund der begrenzten Möglichkeiten einer CD-ROM überwiegend als Hörspiel in einem statischen Codec-Interface daherkamen, aber der Spieler, ich, war dennoch gefesselt. Als ich auf dem Boden lag und den Artikel wälzte, mit dem schmerzlichen Gefühl, die beiliegende Demo erst Tage später zu Hause zocken zu können, war mir die narrative Komplexität von MGS natürlich gleich. Vielmehr konnte ich es nicht glauben, was die Redakteure über die Spielmechanik zu berichten hatten – angeblich bot das Spiel damit eine neue und intelligente Reaktion auf die Aktionen des Spielers. Gegner hören Geräusche und gehen diesen nach, erkennen Fußabdrücke im Schnee, können gelockt und lautlos gemeuchelt werden. Snake bewegt sich kriechend durch Lüftungsschächte, versteckt sich in Kisten, entdeckt durch den Rauch der Zigarette Sensoren, sprengt geheime Gänge mittels mgs1bC4 frei, nachdem er via Abklopfen strukturelle Schwachstellen entdeckte – eine Bandbreite an Gameplay, das das Wort tatsächlich verdient hatte. Bis zu diesem Zeitpunkt kannte ich diese handwerkliche Spieltiefe nicht – die Welt reagiert auf mich, auf mein Handeln und ich kann Dinge ausprobieren, die ich für logisch hielt – und siehe da, es funktioniert. Metal Gear schaffte etwas Eigenes: es ließ mich zum ersten Mal ein Spiel auf meine eigene Weise angehen. Neben den unzähligen „Metal Gear“-Momenten, die mehrere Generationen als kollektive Erfahrung teilen und auch über ein Jahrzehnt später gemeinsam schwelgen und staunen lassen, übergab Kojima das Pad in die Hand des Spielers, freundlich lächelnd mit der Empfehlung: „Und jetzt mach was draus!“. Wenn wir über die Sandboxfreiheiten eines Grand Theft Auto sprechen, so dürfen wir nicht vergessen, dass Metal Gear Solid uns als eines der ersten Spiele überhaupt die Freiheit der spielerischen Exploration einer Welt überließ. Natürlich mit dem Folgeeffekt, dass jeder MGS-Gamer meint, seine Herangehensweise wäre die einzig Richtige.

In den letzten 17 Jahren folgten noch vier weitere Titel, die diese Freiheit und detaillierte Beschäftigung mit dem Genre verfeinerten, bis nun 2015 der letzte Teil der Reihe (The Phantom Pain), mittlerweile auf Blu-ray, in den Konsolen der Nutzer rotiert.

Es würde die Rahmen der Inspiration sprengen, um über jedes Detail und jede Besonderheit dieser Videospielgeschichte zu schreiben, aber auch nach all der Zeit hat Kojima es verstanden, etwas zu schaffen, das sich auch auf der Metaebene als Spiel versteht, ohne jedoch den Anspruch zu verlieren, eine organisch autarke KI innerhalb einer Welt zu entwickeln, die in mir die Neugierde weckt, diese zu manipulieren und zu gestalten. Falls jemand diese Erfahrung noch nicht gemacht hat, so sollte diese dringend nachgeholt werden. Denn wer Metal Gear gespielt hat, der hat ein Stück videospieltechnische Evolution erlebt. Eine Reise, die ich nicht missen will.

Der Kamera-Wahn

von Dominic

Ich denke wir alle freuen uns sehr, wenn wir das neue Objektiv von der Post holen, endlich genug Geld gespart haben für die neue Kamera, nun endlich 4K produzieren können, einen noch größeren Bildsensor nutzen dürfen, 3D Möglichkeiten, Surround-Sound, etc. pp.

Doch brauchen wir diese ganze neue Technik eigentlich? Muss unbedingt alles auf der Alexa gedreht sein, brauche ich definitiv die Zeiss Ultraprimes, mehr Pixel, größere Farbtiefe?

Simon von DSLRguide hat dazu eine ganz eindeutige Meinung. Vielleicht gebt ihr ihm ja recht.

 

 

Yay! Akustisch, aber anders…

von Ben

Wir sind mitten in der Produktion von Breaking News, sodass hiermit nur eine kleine, aber feine Inspiration dazwischengeschoben werden soll.

yaybahar2Während wir uns in die Welten der Filmproduktion begeben, hat der Musiker Görkem Sen eine Möglichkeit geschaffen, eine besondere auditive Entführung zu gestalten. Mit der Yaybahar baute er ein akustisches Instrument, dass jedoch sehr synthetisch wirkende Klänge erzeugt. Damit kreiert er eine sehr abgefahrene Soundkulisse, die an Künstler wie Amon Tobin oder Science Fiction-Filme erinnert. Mit Metalldrähten, Reflektionsflächen, Schwingkörpern und einem Bogen kann er sowohl Flächen, als auch perkussive Sounds erzeugen.

Sehr abgefahren, wie man auch ohne digitale Hilfe Musik from hinterm Jupiter erschaffen kann.

Aber hört lieber selbst rein und lasst Euch abholen!

Let’s Play – Aufmerksamkeitsökonomie in Reinform

von Ben

Ein schwerer Titel beherbergt ein schweres Thema. Zumindest, wenn man es von unterschiedlichen Seiten betrachten möchte. Und wieder einmal betrifft es den menschlichen Drang zum Teilen seines Wesens. Web2.0 hat uns ein Fenster zur Schaustellung unserer Persönlichkeit gegeben. Oder vielmehr, was uns ausmacht, was uns interessiert. Über den fast schon unheimlichen Kult um youtuber und Giganten der preisgünstigen SelbstinszenKatja Krasaviceierung wurde in anderen Formaten bereits ausführlich diskutiert, sodass ich an dieser Stelle nicht Fässer öffnen will, deren Inhalt wir bereits zum Frühstück, Mittagessen und Abendbrot hatten. Es sei nur darauf hingewiesen, wie sehr er unseren Alltag beeinflusst. Jumpcuts definieren unsere neue Art der many-to-many Kommunikation, verändern vielleicht sogar kognitive Fähigkeiten von heranwachsenden Konsumenten. Gesprächskultur und Gesprächshygiene wird beschnitten und zu einer Form von Informations-Tiki Taka eingedampft. Die katalanische Version von form follows function. Doch übt man hier vielleicht Kritik an der Art und Weise, wie Nutzer Inhalte genierieren, so bleibt im Abtropfsieb dieser Diskussion zumindest der Erkenntnisrückstand hängen, dass sie es tun. Der Mensch als reflektives Wesen lässt in einer Form des schnellverdaulichen Enterntainment seine Umwelt in die eigene Gedankenwelt einblicken. Auch wenn diese Welt manchmal nur den Umfang eine Juniortüte hat. Convenience-Unterhaltung in Zeiten der Zeitverdichtung sozusagen. Und alles im Zuge der gesteigerten Aufmerksamkeitslenkung. Der Mensch hat bedienbare Werkzeuge, um kurzfristig einen Schritt näher in den Mittelpunkt der Öffentlichkeit zu rücken und denkt damit automatisch konstant über die Dinge nach, die er mit dem Volk teilen will. Ich streame, also bin ich.

Generieren youtuber, wie Sami Slimani, Bibi oder Katja Krasavice dabei Sternstunden ihres begrenzten Universums, in dem sie ein gewisses Portfolio an Inhalten als Fächer vorm spärlich ausgeleuchteten Gesicht tragen, so stürzt sich eine andere Form von Aufmerksamkeitswirtschaftler auf einen Bereich der Unterhaltung, der sonst im Verborgenen geblieben ist: Let’s Player. Man kann nun in die Tiefe gehen, um diesen Begriff zu definieren oder die Tastatur schonen, in dem man einfach sagt: Menschen spielen Videospiele und filmen sich dabei. Was in den Anfängen der alltäglichen Internetnutzung als Sparte von GIGA noch von den Großkopferten  der Industrie belächelt wurde, weil man einem solchen Format keine Überlebenschance zusprach, erfährt in den letzten Jahren einen immer größer werdeForsennden Zuwachs an Streamern, die ihr Scheitern, Schimpfen, ihre Freude und epische Siege in digitalen Welten zur Schau stellen wollen. Dienste, wie Twitch bieten ihnen dabei eine technische Plattform, um diese Übertragungen zu deichseln und darüber hinaus die Möglichkeit, eine Gefolgschaft an Beobachtern aufzubauen. Was diese Leute dazu bewegt, stundenlang einem scheinbar Unbekannten beim Videospielen zu beobachten, soll hier nicht weiter diskutiert werden, jedoch ist es eine Tatsache, dass Let’s Player mittlerweile auch wirtschaftlich von dieser Form der Unterhaltung profitieren, in dem sie Abos und Spendenmöglichkeiten anbieten. Erst Ende 2014 legte der populäre Streamer Forsenlol eher zufällig die Spendenstatistik seines Accounts bei einer Liveübertragung frei und ließ die Welt nun nicht nur wissen, dass er gern Videospiele zockt, sondern dabei bereits nach der Hälfte eines Monats über 18.000 Dollar gespendet bekommt.

Der kleine Mann schreit nun auf. Die gebückte Facility Managerin schüttelt den Kopf und der, sich für einen ehrlichen Arbeiter haltende, Bürger außerhalb der Zielgruppe von Let’s Playern versteht die Welt nicht mehr. Zu deuten ist, dass auch 2015 gemeinsame Interessen und die digitale Nähe zu Fremden eine neue Form der sozialen Gemeinschaft kreiert. Diese ist auf dem Fundament der Unterhaltung aufgebaut, obwohl sie die Einführungskurse von Medienproduktion konsequent geschwänzt hat (vermutlich, um zu streamen).  Ich persönlich habe auch bereits viele Stunden beim Beobachten von Videospielern verbracht und kann selbst die eigene Faszination, anderen Menschen dabei zu folgen, wie sie Dinge tun, ich eigentlich selbst angehen könnte, nicht erklären. Ich habe mit Streamern gechattet, die sich vor einem Publikum von fünf Leuten Nächte um die Ohren geschlagen haben, um eine Show abzuliefern. Und ich werde es wieder tun. Ob dies nun gut oder schlecht ist, sei dahingestellt. Vielmehr sagt diese Form der Schaustellung über den Mensch aus, dass er Unterhaltung sucht, um sich selbst darin wieder zu erkennen.

Aufmerksamkeit lässt sich nun mal in zwei Richtungen lenken: nach außen und nach innen.