Online-Abo
Login Registrieren
Games World
  • Google IO 2017 Keynote: Liveticker beendet - Android Go, Photo Books und Google Lens angekündigt

    Google IO Keynote: Android O, Pixel und Co ab 19:00 Uhr im Livestream Quelle: Google

    Nachdem die ersten großen Entwicklerkonferenzen des Jahres bereits gehalten sind, findet heute Abend ab 19:00 Uhr die erste Keynote zur Google IO statt. Die sogenannte Google-Keynote kann hier im Livestream verfolgt werden und wir begleiten die Veranstaltung auch mit einem Liveticker.

    Liveticker

    21:02 Uhr: Pichai fasst das Event von heute zusammen und betont nochmal, dass künstliche Intelligenz und Machine Learning für die Zukunft von enormer Wichtigkeit sein wird. Und damit endet die Keynote von Google an diesem Abend. Das Team von PC Games Hardware bedankt sich für Ihre Aufmerksamkeit und wünscht Ihnen noch einen schönen Mittwochabend.

    20:58 Uhr: Es folgt eine Demo, in der der Nutzer nach einem Job in einer bestimmten Branche sucht. Hier kann anschließend weiter gefiltert werden, das Gerät erkennt selbstständig in welcher Region ein Job am meisten Sinn macht. Außerdem zeigt Google an, wie weit der Job entfernt ist und ob sich um Voll- oder Teilzeit handelt.

    20:56 Uhr: Google for Jobs ist ein weiteres System zur Registrierung von Job-Angeboten und Bewerbungen.

    20:52 Uhr: Sundar Pichai betritt die wieder die Bühne. Es geht zuletzt nochmal um Machine Learning. Es wird ein Video eines Highschool-Schülers gezeigt, der sich selbst beigebracht hat, mit Googles TensorFlow umzugehen und ein System zur Früherkennung von Krebszellen zu entwickeln.

    20:51 Uhr: Google Expeditions wird bald AR-kompatibel. Auch für Schulen könnte diese Technik wichtig sein, um kompexe Inhalte zu simplifizieren. So können beispielsweise im Klassenzimmer Vulkane oder Asteroide dargestellt werden.

    20:50 Uhr: VPS könnte in Zukunft auch audiobasiert funktionieren und damit für Sehgeschädigte von Nutzen sein.

    20:48 Uhr: Tango funktioniert auch mit Apps wie Google Maps. Mit dem Visual Positioning Service kann das Smartphone erkennen, wo der Nutzer sich genau befindet. Dies kann beispielsweise innerhalb eines großen Supermarktes von Nutzen sein, wenn der User einen bestimmten Gegenstand sucht.

    20:47 Uhr: Nun soll es um Augmented Reality gehen. Mit 'Tango' soll es einfacher werden, die Umgebung zu erkennen. Ein neues Asus Zenfone, welches 2017 erscheint, soll die Tango-Technologie beinhalten.

    20:45 Uhr: Google arbeitet dabei mit HTC zusammen, die auch schon für die Vive zuständig sind. Lenovo ist auch mit an Bord. Das VR-Headset soll Ende 2017 veröffentlicht werden.

    20:44 Uhr: Google entwickelt ein eigenständiges VR-Headset, welches ohne Smartphone, Kabel oder PC auskommt. Insbesondere das Headtracking mit dem Codenamen World Sense soll dabei äußerst realistisch ausfallen.

    20:42 Uhr: Clay Bavor betritt die Bühne, es soll um Virtual Reality gehen. Das Samsung Galaxy S8 und S8 Plus erhalten Daydream-Support noch diesen Sommer.

    20:39 Uhr: YouTube Go ist eine neue App, die sich auch an Einsteiger-Smartphones wendet. Hier blendet die App vor dem Anklicken des Videos ein, wieviel Daten das Video benötigt. Außerdem werden vor dem Anschauen einige Screenshots aus dem Video angezeigt, damit der Nutzer sich vergewissern kann, ob es sich lohnt, die mobilen Daten dafür herzugeben.

    20:37 Uhr: 512 Megabyte bis 1 Gigabyte sollen reichen, um Android O via Android Go zum Laufen zu bringen. Data Management steht hierbei an erster Stelle und kann einfach über die Einstellungen abgerufen werden. Hier können beispielsweise auch Features des Netzanbieters geändert werden.

    20:35 Uhr: Mit Android Go soll es ein neues Programm für Einsteiger-Geräte geben. Die Apps und das Betriebssystem sollen deutlich leichter und leistungsärmer ausfallen, damit die Geräte eine angenehme Nutzererfahrung bieten.

    20:33 Uhr: Nutzer können sich über die Google-Webseite für die Beta von Android O anmelden.

    20:32 Uhr: Kotlin wird eine neue integrierte Android-Sprache sein. Damit sollen Entwickler laut Google deutlich produktiver werden.

    20:30 Uhr: Das dritte große Thema dreht sich um Entwickler-Tools. Neue Android Studio Profilers können außerdem sehen, welche Aktivitäten wieviel Leistung benötigen.

    20:29 Uhr: Als Nächstes geht es um Optimierung. Das Pixel-Smartphone bootet beispielsweise zwei Mal so schnell wie vorher. Google will weiterhin daran arbeiten, das Betriebssystem schneller und leistungsfähiger zu machen.

    20:28 Uhr: Stephanie Saad Cuthbertson betritt die Bühne. Zunächst geht es um Sicherheit. Jeden Tag werden 50 Milliarden Apps überprüft und verifiziert. Befinden sich hier auffällige Aktivitäten, werden die Apps entfernt. Dies geschieht durch Google Play Protect.

    20:26 Uhr: Die Selektierung von Text wird einfacher, indem die Software überprüft, welche Informationen der Nutzer höchstwahrscheinlich kopieren will. So können zum Beispiel Adressen, Namen oder Rufnummern automatisch erkannt werden und entsprechende Interaktionen vorgeschlagen werden.

    20:25 Uhr: Auto-Fill soll es zudem leichter machen, sich bei unterschiedlichen Plattformen anzumelden.

    20:23 Uhr: Notification Dots soll eine weitere Funktion sein. Will eine App dem Nutzer eine Benachrichtigung zeigen, kann der Nutzer lange auf das App-Symbol drücken und diese dort anzeigen. Benachrichtigungen über die Statusleiste funktionieren aber weiterhin.

    20:21 Uhr: Jetzt geht es um Android O. Die Nutzererfahrung soll sich mit einigen neuen Features deutlich verbessern. Mit Picture-in-Picture-Multitasking soll es zum Beispiel einfacher werden, mehrere Aufgaben gleichzeitig zu erledigen.

    20:19 Uhr: Zwei Milliarden aktive Geräte verzeichnet Google - nur bezogen auf Smartphones und Tablets.

    20:18 Uhr: Nun betritt Dave Burke die Bühne, es geht um Android. Vorher wird ein kurzes Video gezeigt, indem das plattform-typische Androide zu sehen ist.

    20:16 Uhr: Das durch die Wasserballonschlacht entstandene Slow-Motion-Video wird direkt im Anschluss gezeigt.

    20:14 Uhr: Barbara Macdonald spendet 500 US-Dollar, woraufhin die Slow Mo Guys mit 500 Wasserballons abgeworfen werden.

    20:12 Uhr: Es folgt eine Demonstration. Dafür sind die Slow Mo Guys live zugeschaltet, um die Vorzüge von Super Chat darzustellen. Die bezahlbaren Nachrichten werden farblich markiert, abhängig von der eingegebenen Geldsumme. Außerdem werden Super Chats über einen bestimmten Zeitraum angepinnt.

    20:10 Uhr: Barbara Macdonald betritt die Bühne und spricht über Super Chat. Dabei handelt es sich um ein Feature beim Livestreaming eines Content Creators, bei dem Nutzer Geld bezahlen können, um die eigenen Kommentare hervorzuheben.

    20:08 Uhr: 360-Grad-Videos sollen bald auch auf dem Fernseher möglich sein. Von Konzerten bis zu Naturwundern kann hier die komplette YouTube-Bibliothek abgespielt werden.

    20:07 Uhr: Sarah Ali betritt die Bühne und will über die Wichtigkeit von Fernsehern im Bezug auf YouTube-Konsum sprechen. Die Wiedergabezeit auf diesen Geräten habe sich in den letzten Jahren deutlich vergrößert.

    20:05 Uhr: Wojcicki nennt das Beispiel eines Professors, welcher durch YouTube an die Herstellung von Prothesen gekommen ist.

    20:03 Uhr: Zunächst werden einige Statistiken und Grundlagen zur generellen Plattform genannt.

    20:01 Uhr: Nun geht es um YouTube. Es folgt ein kurzes Video über verschiedene Clips unterschiedlicher YouTuber. Susan Wojcicki betritt die Bühne. Eine Milliarde Nutzer verwenden YouTube.

    19:59 Uhr: Und nochmal geht es um Google Lens. Wieder mithilfe der Kamera können beispielsweise Fotos, die nur dafür gemacht werden, um Informationen zu speichern, einfacher aufgeruft werden.

    19:58 Uhr: Photo Books wird für Android und iOS ab nächster Woche erhältlich sein.

    19:55 Uhr: Photo Books ist eine weitere Neuheit, die dafür sorgen soll, dass Fotobücher und generell das Drucken bestimmter Fotos deutlich vereinfacht wird. Photo Books kann dabei bereits Vorschläge auf Basis von bestimmten Keywords machen. 9,99 US-Dollar nimmt Google für das Softcover-Modell, 19,99 US-Dollar für das Hardcover-Modell.

    19:52 Uhr: Es folgt eine Demonstration, allerdings mit einem Pappaufsteller der Kinder von Anil Sabharwal. Das Foto wird geschossen, das Bild wird anschließend nahtlos in die Bibliothek überführt.

    19:50 Uhr: Shared Libraries geht sogar noch einen Schritt weiter. Hier werden bestimmte Fotos automatisch mit vorher festgelegten Personen geteilt. So können zum Beispiel Ehepartner sämtliche Bilder ihrer Kinder speichern und so beide darauf zugreifen.

    19:49 Uhr: Google Photos sendet also auf Wunsch Benachrichtigungen auf das Smartphone, wenn es Fotos gibt, die gut geteilt werden kann. Auch iPhone-Nutzer können diese Funktion nutzen.

    19:47 Uhr: Google Photos wird in Zukunft Gesichter erkennen und den Nutzer darauf aufmerksam machen, diese Fotos mit den jeweiligen Freunden zu teilen. Das Ganze nennt sich Suggested Sharing.

    19:46 Uhr: Es folgt eine kurze Einweisung in die Vergangenheit der App. 500 Millionen Nutzer verwenden die App im Monat.

    19:44 Uhr: Anil Sabharwal betritt die Bühne und spricht über Google Photos.

    19:42 Uhr: Visual Responses ist ein weiteres Feature für Google Home. Stellt der Nutzer bestimmte Fragen, erhält er entsprechende optische Anweisungen oder nützliche Informationen auf sein Smartphone. Auch Chromecast wird dies anzeigen können. Auch der Kalender ist nutzer-, bzw. stimmen-abhängig.

    19:41 Uhr: Weitere Partner, darunter HBO Now und CBS.

    19:40 Uhr: Spotify kommt zu Google Home, zumindest das kostenlose Abo. Soundcloud und Deezer sind auch mit an Bord. Google Home wird außerdem Bluetooth-Unterstützung erhalten.

    19:39 Uhr: Die Kontakte, die angerufen werden können, sind dabei sogar an den Nutzer gebunden. Das Gerät merkt sich also die Stimme des Users und agiert dementsprechend, wenn beispielsweise allgemeine Kontakte wie Mama oder Papa angerufen werden sollen.

    19:38 Uhr: Händeloses Anrufen wird auch ein neues Feature von Google Home. Rein durch Spracheingabe und komplett kostenlos können sich Google-Home-Nutzer also in Zukunft anrufen.

    19:37 Uhr: Proactive Assistance soll Benachrichtigungen abhängig von der Priorität filtern können und den Nutzer vor allem auf wichtige Ereignisse aufmerksam machen.

    19:35 Uhr: Rishi Chandra, Vice President im Bereich Home Products, betritt die Bühne. Google Home wird bald auch in Kanada, Frankreich und Deutschland verfügbar sein.

    19:34 Uhr: Actions on Google kann in Zukunft auch für Transaktionen genutzt werden. Zahlungen, Rechnungen und persönliche Informationen sind damit gemeint. Hier können zum Beispiel rein durch Spracheingabe und gegebenenfals Fingerabdruckeingabe Bestellungen aufgegeben werden.

    19:33 Uhr: Valerie Nygaard, Product Manager bei Google, betritt die Bühne.

    19:32 Uhr: Der Google Assistant erhält in den kommenden Wochen auch neue Sprachen, darunter und sehr zukunftsnah zum Beispiel Deutsch.

    19:31 Uhr: Mit dem Google Assistant SDK sollen Entwickler den Google Assistant auch in Nicht-Android-Geräte einpflegen können. Als Beispiel nennt Huffman Lautsprecher.

    19:30 Uhr: Google Assistent soll in Zukunft immer erreichbar sein. Auch auf dem iPhone soll die Funktion ab sofort verfügbar sein.

    19:27 Uhr: Mithilfe von Google Lens können auch Fremdsprachen durch die Kamera übersetzt werden. Der Google Assistent kann mit diesen Informationen dann umgehen und neue Infos preisgeben oder weitere Optionen aufzeigen.

    19:25 Uhr: 100 Millionen Geräte nutzen den Google Assistent. Konversationen soll der Google Assistent in Zukunft nochmal besser verstehen, anstatt einfach auf Schlüsselwörter einzugehen. Dazu soll es möglich sein, dem Assistenten auch per Wörtereingabe Aufgaben zu erteilen.

    19:23 Uhr: Jetzt steht der Google Assistent im Vordergrund: Scott Huffman Vice President Engineering bei Google betritt die Bühne.

    19:22 Uhr: AutoDraw ist ein kleines Gimmick, bei dem die Software erkennt, welches Symbol der Nutzer malen will und schlägt daraufhin gegebene Vorlagen vor. Auch dies könnte ein Teilaspekt von Google.ai sein.

    19:20 Uhr: Google.ai kann auch für die Medizin von Interesse sein. Google will damit beispielsweise deutlich früher Krebszellen entdecken, indem Vorlagen mit den Daten des Patienten abgeglichen werden.

    19:18 Uhr: Google.ai ist eine neue Domain, die sich auf Forschung, Tools und Applied AI im Hinblick auf Machine Learning bezieht.

    19:16 Uhr: Cloud TPUs werden dafür von Google genutzt und können beliebig hoch gestapelt werden. Die TPUs können ab heute bei Google Compute Engine genutzt werden.

    19:15 Uhr: TPUs sollen bei Google in Zukunft eine große Rolle spielen, vor allem im Hinblick auf künstliche Intelligenz und Machine Learning. Dabei steht zunächst das Training und anschließend die Inferenz im Vordergrund, unter Anderem bei der Erkennung von Fotos.

    19:13 Uhr: Google Lens ist die erste große Neuigkeit des Abends. Damit können beispielsweise mithilfe der Kamera Pflanzen bestimmt werden oder WLAN-Passwörter abfotografiert werden, damit sich das Smartphone direkt mit dem Netzwerk verbindet. Richtet der Nutzer die Kamera beispielsweise auf ein Restaurant, ruft Google die nötigen Informationen bezüglich dieser Einrichtung ab.

    19:12 Uhr: Auch Computer Vision soll immer mehr an Wert gewinnen. Pichai nennt als Beispiel ein System, dass den Kontext von Fotos erkennt und damit sogar fehlerfreier funktioniert als die Bilderkennung des Menschen.

    19:11 Uhr: Google hat weiterhin an Spracherkennung gearbeitet und es geschafft, die Fehlerrate auf 4,9 Prozent zu minimieren. Damit hat sich die Quote innerhalb eines Jahres halbiert.

    19:10 Uhr: Mit Smart Reply soll es einfacher werden, schnell auf Emails zu antworten. Die KI sucht dabei kontext-basiert passende Antworten auf gegebene Fragen.

    19:08 Uhr: 1 Milliarde Nutzer verwenden die sieben meistgenutzten Google-Apps, darunter YouTube, Maps und Chrome. Google Drive verzeichnet monatlich 800 Millionen Nutzer. 2 Milliarden Android-Geräte gibt es bisher weltweit.

    19:06 Uhr: Nun geht es richtig los. Sundar Pichai, CEO von Google, betritt die Bühne.

    19:04 Uhr: In dem Video geht es auch um genau das: wie eine Idee zur Umsetzung und erneuten Optimierung führt.

    19:03 Uhr: Wie bereits von anderen Keynotes der letzten Zeit bekannt, beginnt das Event mit einem Einführungsvideo, welches von 10 auf 0 herunterzählt. 'Dies ist die Geschichte einer Idee', steht es anschließend auf der Bühne geschrieben. Es folgt ein hübsch gezeichnetes Comic-Video.

    19:02 Uhr: Und damit beginnt das Event mit einer ganz leichten aber verschmerzbaren Verspätung.

    18:59 Uhr: Das Publikum beginnt sich zu setzen, lange kann es also nicht mehr dauern.

    18:45 Uhr: Herzlich willkommen zum Liveticker zum heutigen Google-Event. Die Keynote wird laut offizieller Webseite 90 Minuten gehen und höchstwahrscheinlich neue Informationen zu Android O und Pixel hergeben.

    Alljährlich gibt es nicht nur bei Apple und Microsoft Entwicklerkonferenzen, sondern auch bei Google. Die Google IO kann hier im Livestream und im Liveticker verfolgt werden. Google hat das Programm zweigeteilt. Die sogenannte Google-Keynote geht vermutlich zwei Stunden und startet um 19:00 Uhr deutscher Zeit. Der Liveticker hierzu wird bereits um 18:45 Uhr beginnen. Die zweite Keynote ist die Developer-Key-Note im Anschluss, die um neun Uhr läuft, die wir aber nicht mehr im Liveticker begleiten.

    Von der Google-Keynote wird vor allem die Vorstellung des neuen Android-Betriebssystems erwartet, dass mit O durchnummeriert ist und vermutlich als Android 8 auf den Markt kommt. Über größere Features (außer kleineren Verbesserungen) ist nicht sonderlich viel bekannt. Die größte Neuerung, die im Vorfeld im Web diskutiert wurde und die Entwickler in Betas sehen konnten, ist die Trennung des Betriebssystems in einen Kern und einen Aufsatz. Den Aufsatz können die Smartphonehersteller weiterhin anpassen, während der Kern immer gleich bleibt. Das soll vor allem die Fragmentierung des Marktes bei Sicherheitsupdates und Versionen etwas eindämmen - eines der größten Probleme von Android.

    Ob Google auch die Gelegenheit nutzt, um neue Hardware vorzustellen, ist ungewiss. Möglich wären neue Pixel-Geräte. Letztes Jahr wurden diese zusammen mit Android N im Oktober veröffentlicht. Hardware könnte aber auch erst zu einem späteren Zeitpunkt vorgestellt werden. Insbesondere ein Tablet wäre nach den üblichen Release-Zyklen fällig. Allerdings wurde auch VR- und TV-Hardware im Vorfeld genannt. Als sicher gilt zudem, dass Google mehr ins Smarthome drängen wird, weil auf der IO entsprechend viele Veranstaltungen laufen. Ähnliches gilt für VR und AR. Und wie jeder Großkonzern ist auch Google im Deep Learning aktiv.


    Ab 18:45 Uhr geht es los. Legen sie schon mal ein kühles Getränk und Knabberwerk bereit


  • Handy
    Handy
    Es gibt 3 Kommentare zum Artikel
    Von Av4l
    Also ich find diese Bilderkennung beeindruckend, und in dem Fall wirklich sinnvoll. Erspart lästiges Eintippen. Und…
    Von BoMbY
    Augmented Reality wäre etwas das man hervorragend mit einer Brille kombinieren könnte ... ohh wait ... Und ansonsten…
    Von wurstkuchen
    Google scannt dein Wifi-Passwort ein und connected für dich und alle jubeln im Publikum... Amis sind so kluk,…
      • Von Av4l Komplett-PC-Käufer(in)
        Zitat von wurstkuchen
        Google scannt dein Wifi-Passwort ein und connected für dich und alle jubeln im Publikum... Amis sind so kluk, unglaublich.


        Also ich find diese Bilderkennung beeindruckend, und in dem Fall wirklich sinnvoll. Erspart lästiges Eintippen.

        Und was soll daran jetzt schlimm sein? Denkst du etwa, Google würde jetzt dein Wifi-PW an Dritte weitergeben? Und selbst wenn, dann müssten die das ja gezielt an Leute verkaufen, die sich direkt in deiner Nähe befinden, weils sonst absolut keinen Nutzen hätte. Klingt find ich doch schon etwas abstrus. Ach, und woher willst du denn dann wissen, dass dein OS nicht direkt solche Daten an den Hersteller sendet?
        Da fällt mir ein: WLAN-Passwörter kann Android sowieso schon über den Google-Account sichern, was ich übrigens auch als sinnvoll ansehe.
      • Von BoMbY Freizeitschrauber(in)
        Augmented Reality wäre etwas das man hervorragend mit einer Brille kombinieren könnte ... ohh wait ...

        Und ansonsten scheinen die nichts mehr zu bieten haben? Endlich Youtube auf dem Handy ... lol ...

        Zitat von wurstkuchen
        Amis sind so kluk, unglaublich.
      • Von wurstkuchen PC-Selbstbauer(in)
        Google scannt dein Wifi-Passwort ein und connected für dich und alle jubeln im Publikum... Amis sind so kluk, unglaublich.
  • Print / Abo
    Apps
    PC Games Hardware 06/2017 PC Games 05/2017 PC Games MMore 06/2017 play³ 06/2017 Games Aktuell 06/2017 buffed 12/2016 XBG Games 04/2017
    PCGH Magazin 06/2017 PC Games 05/2017 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1228134
Handy
Google IO 2017 Keynote: Liveticker beendet - Android Go, Photo Books und Google Lens angekündigt
Nachdem die ersten großen Entwicklerkonferenzen des Jahres bereits gehalten sind, findet heute Abend ab 19:00 Uhr die erste Keynote zur Google IO statt. Die sogenannte Google-Keynote kann hier im Livestream verfolgt werden und wir begleiten die Veranstaltung auch mit einem Liveticker.
http://www.pcgameshardware.de/Handy-Smartphone-229953/News/Google-IO-2017-Keynote-Live-Stream-Live-Ticker-1228134/
17.05.2017
http://www.pcgameshardware.de/screenshots/medium/2017/05/io17-social-1200x630-indigo-pcgh_b2teaser_169.png
google
news