Egal ob man mit Angular, React oder irgend einem anderen Framework entwickelt – progressive Web-Apps basieren in allen Fällen auf fundamentalen Webstandards wie Promises, Service Workers und Offline-Datastores. Um genau diese PWA-Basistechnologien geht es in diesem Workshop. Im ersten Teil des Workshops geht es um die Hintergründe und vor allem die konkreten Technologien hinter Service Worker, Offlinecache, App Manifest und Co. Jedes neue API wird im Detail betrachtet und dessen Einsatz anhand von Beispielen demonstriert. Auch Devtools und Debugging-Techniken sind natürlich ein Thema. Gerüstet mit dem Wissen um diese und weitere Grundlagentechnologien ist die Entwicklung einer eigenen PWA ein Leichtes - zum Beispiel in der zweiten Hälfte des Workshops. Gemeinsam entwickeln die Teilnehmer einen Prototyp einer kleinen, offlinefähigen mobile-first PWA – entweder auf Basis einer Vorlage oder ganz nach dem persönlichen Geschmack mit dem Framework der Wahl. In Teil zwei gibt es keine komplizierten Slides oder langweiligen Vorträge, sondern vom Trainer unterstützte Hands-on-Entwicklung am konkreten Beispiel! Bringen Sie Ihren Laptop mit und vielleicht – wenn Sie mögen – Ihre eigene Idee für eine kleine progressive Web-App.
An der Entwicklung rein sprachgesteuerter Software wird man in der Zukunft nicht vorbeikommen. Amazon Alexa Skills eröffnen neue Welten, neue Möglichkeiten, neue Anwendungsfälle. Lernen Sie in diesem ganztägigen Workshop, wie man Skills für Amazon Alexa konzipiert, entwickelt und über den Amazon-eigenen Skill Store vertreibt. Alles, was man zur Entwicklung von Skills benötigt, ist eines der verschiedenen Amazon-Echo-Geräte. Schon der kleine Echo Dot reicht völlig aus. Alles andere bekommen Sie hier in diesem Workshop. Seien Sie früh dabei, und lernen Sie die schöne neue Welt der Voice User Interfaces kennen.
Als eins der nächsten großen Dinger in der Welt der Mobile-Apps gelten
die webbasierten Progressive Web Apps. Sie sollen die Vorteile nativer
Apps mit denen klassischer HTML5-Apps verbinden und verwenden dafür
Service Worker und andere Buzzword-Techniken. Diese Session erforscht
die Welt der Progressive Web Apps mit Fokus auf das Big Picture. Was
können PWA leisten und was nicht? Wie verhalten sie sich zu nativen
Apps, Hybrid-Apps und zu HTML5-Apps? Wie gestaltet sich die User
Experience und was funktioniert auf welcher Plattform wie gut? Diese
Keynote und die anschließende Q&A-Session klären die dringendsten
Fragen rund um die Bedeutung des Phönomen Progressive Web App für
Gegenwart und Zukunft.
Der Vortrag gibt einen Einblick in ausgewählte Fragen bei der Entwicklung von Chatbots und Sprachassistenten auf der Basis von Alexa oder Google Home. Des Weiteren werden grundlegende Konzepte für Conversational User Interfaces beleuchtet. Anhand von Entwurfsmustern und Anwendungsbeispielen wird ein Einblick in die Praxis der Entwicklung gegeben.
Anki Overdrive ist der digitale Nachfolger der Carrera-Rennbahn - jedoch KI-basiert und ohne mechanische Spuren. Die Autos kommunizieren per Bluetooth und können über Smartphones gesteuert werden. In diesem Vortrag zeigen wir, wie wir die Anki-Fahrzeuge mit einem Raspberry Pi verbinden und so per MQTT in eine IoT-Cloud integrieren. Wir können die Autos nicht nur per Gamepad lenken und die aktuelle Fahrsituation visualisieren, sondern auch Smart-City-Applikationen implementieren und andere Real-World-Szenarien mit der Cloud simulieren. Selbstverständlich werden die Autos auch in Aktion zu sehen sein - Probefahrt möglich.
Offline First, Service Workers, Manifest Files... die Welt der Progressive Web Apps ist voller Buzzwords. Zeit, das ganze Gerede mal mit Inhalt zu füllen und sich ganz praktisch anzusehen, wie eine PWA gebaut wird. Dieser Talk zeigt wie dank neuer Webstandards wie Service Workers, Offline-Datastores und Background-Sync herkömmliche Webapps zu quasi-nativen Anwendungen mutieren. Wir begleiten eine kleine Webapp auf ihrer Reise von einer reinen Webseite hin zu einer App, die sich auf Smartphone wie Desktop als Bürger erster Klasse installiert. Neben konkreten Technologien geht es auch um Architekturüberlegungen, hilfreiche Libraries sowie Devtools und Debugging-Techniken.
In seinem Vortrag wird Rüdiger Weiß zum einen auf die Prozesse Continuous Integration und Continuous Delivery eingehen, sowie diese in Kombination mit einer modernen und modularen Software-Architektur für Apps erläutern.
Es soll deutlich werden, dass CI/CD in der Entwicklung von Software wichtige Bestandteile für die Steigerung der Qualität und ihrer Sicherung sind. Jedoch kann dieser Nutzen erst in Verbindung mit einer intelligenten Software-Architektur zum tragen kommen. Eine zeitgemäße Software-Architektur erweist sich als unabdingbar, um mehrere Apps auf der gleichen technologischen Grundlage wiederverwendbar und schnell zu entwickeln.
Im Vortrag sollen u.a. Fragen folgender Art geklärt werden:
Optimizing sites to load instantly on mobile is far from trivial. Costly JavaScript can take seconds to process, we often aren't sensitive to users data-plans and browsers don't know what UX-critical resources should load first. Thankfully there's a lot we can do to give our users a MUCH better loading experience. Watch as a Google Chrome Developer Expert illuminates new loading best practices for diagnosing and making real world sites load instantly today.
Im Jahr 2017 hat die Präzison der KI-basierten Spracherkennung die der menschlichen eingeholt. Wir sind damit an einem Tipping Point angelangt, bei dem die natürliche Sprache zum wichtigsten Interface für die Interaktion mit der digitalen Welt wird. Achim Himmelreich präsentiert unter anderem die Ergebnisse einer Studie, die Capgemini zusammen mit dem Massachussetts Institute of Technology durchgeführt hat: Conversational Commerce wird demnach die Welt des Handels radikal verändern. Thematisiert werden die Vorteile aus Sicht des Endkunden ebenso wie seine Zweifel und Befürchtigung und nicht zuletzt die Use Cases für den Handel und Konsumgüterunternehmen, damit sie erfolgreich in die Ära des Conversational Commerce starten können.
Was sind Chatbots, warum sollte man sich für diese Technologie entscheiden und was muss man bei der Entwicklung beachten? Diese Fragen haben wir uns zu Beginn unserer Arbeiten auch gestellt. Was wir gelernt , welche Erfahrungen wir mit Chatbots gemacht und wie User auf unsere Chatbots reagiert haben, möchten wir euch in diesem Vortrag näherbringen. In der Präsentation werden wir unsere Vorgehensweisen bei der Chatbot-Entwicklung vorstellen, die von der konzeptionellen Idee bis hin zur Implementierung in ein Realsystem reichen. Außerdem möchten wir die Unterschiede verschiedener Botframeworks aufzeigen und erläutern, wie man mit Java Chatbots entwickeln kann. Zum Schluss möchten wir die Präsentation mit einem Ausblick über potenzielle Anwendungsgebiete von Chatbots abrunden.
In der XING-App schreiben wir neue Funktionalitäten in Swift, wir haben aber noch einen hohen Anteil von Code in Objective-C. Während die Kombination der beiden Sprachen insgesamt gut unterstützt wird, gibt es immer noch einige Probleme im Detail. Dieser Vortrag gibt einen Überblick über die schönsten Möglichkeiten zur Integration von Objective-C und Swift, und zeigt auf, an welchen Ecken noch Vorsicht geboten ist.
Durch Amazon Alexa und andere Sprachassistenten wächst auch das Interesse an smarten Geräten für das Zuhause. Die Möglichkeiten für traditionelle Einrichtungen wie Lampen werden durch die Anbindung ans Internet auf eine ganz neue Dimension gebracht.
In diesem Vortrag werde ich Sie auf die Reise durch die Softwareentwicklung eines eigenen smarten Lichts mitnehmen - von der Kommunikation mit dem Mikrocontroller über die Implementierung der eigenen App bis hin zum Entwerfen des Voice-Interfaces mit Integration an Amazon Alexa und Google Home.
In dieser Session zeigt Alexander von Below, was Machine Learning ist und warum es auf einmal so ein Thema wurde. Er erklärt die Hintergründe von Machine Learning im Allgemeinen und stellt deren Anwendung vor. Im Detail wird er das Thema anhand von Apples Ansatz auf iOS 11 zeigen. Hierzu wird es eine kleine Demo geben, die vom Erstellen eines Models bis zur Anwendung in der App Machine Learning veranschaulicht. Zum Ende der Session wird Alexander darauf eingehen, was bei Machine Learning auf iOS nicht möglich ist, um falsche Vorstellungen zu vermeiden. Abschließend wird es eine Zusammenfassung geben.
Making ARKit perform properly in flight or overcoming camera vibration – these are only some of the cases faced by MobiDev. Now we want to share our experience of using this technology and expanding the boundaries of its implementation. We want to show how to go beyond the documented approaches. Also we will talk about iPhone X TrueDepth camera and face processing, and run demos to illustrate the results.
Each new technology brings limitations and surprises in the real life deployments. Together with our solution partners and our customers, we have collected some of these and analyzed them. In this session we will look at problems of communication protocol, device management, FOTA, roaming and some others. We will propose solutions for some of them, for others we will introduce future technologies to address the challenges.
In den letzten Jahren hat sich eine Reihe von Lösungen zur Realisierung von Augmented-Reality-(AR-)Benutzeroberflächen entwickelt. Ausgehend von Mobile-AR-Frameworks wie Metaio entwickelte sich die Technologie zu hardwaregestützten Systeme wie Google Tango und zurück zu rein softwarebasierten Lösungen wie ARCore oder arKit. Sie versprechen eine vergleichbare Genauigkeit auf jedes Telefon zu bringen, ohne zusätzliche Hardware. Da die physikalische Umgebung des Geräts so zentimetergenau quantifizierbar wird, können Augmentierungen an echten Positionen in der Realität dargestellt werden und betten sich realistischer ein als jemals zuvor. ARCores Environment Understanding bietet eine gute Alternative zu existierenden Indoor-Navigation-Lösungen, verbessert deren Genauigkeit und Framerate um Größenordnungen und machen ihre infrastrukturellen Vorbedingungen (iBeacon Grids, WiFi) obsolet. Auf lange Sicht könnten Dienste wie der von Google angekündigte Visual Positioning Service das allgegenwärtige GPS beerben. Der Vortrag illustriert diese Entwicklungen am Beispiel einem AR-Userinterface. Auch wenn ARCore nicht auf diesen Anwendungsfall beschränkt ist, hilft es, ein gutes Gefühl für ARCores Möglichkeiten zu bekommen und seine Bedeutung für die Zukunft von Augmented Reality auf mobilen Devices und Indoorpositionierungstechnologie auf globaler Ebene zu verstehen.
Der 25. Mai ist ein wichtiger Tag für die IT-Abteilungen und Datenschutzbeauftragten vieler Unternehmen - denn dann tritt die EU-Datenschutz-Grundverordnung in Kraft. Das Datenschutzrecht wird damit europaweit umfassend reformiert und harmonisiert.
Die Neuerungen treffen branchenübergreifend alle Unternehmen und Organisationen. Bis zum 25. Mai sollte der Bereich Datenschutz daher von jedem Unternehmen in seiner Gesamtheit überprüft und angepasst werden. Und fast überall müssen bis dahin neue Prozesse geschaffen und existierende Datenschutzerklärungen, Checklisten sowie Vertragsdokumente überarbeitet werden. Ganz besonders trifft dies auch den Mobile-Sektor, da hier mitunter auch besonders umfangreiche und sensible Daten betroffen sein können.
In dieser Session vermittelt Markus Laymann den Teilnehmern die Grundstruktur der EU-Datenschutz-Grundverordnung und zeigt die wichtigsten Änderungen zur bisherigen Gesetzeslage auf.
Unter anderem werden folgende Themen besprochen:
Redux ist eine JavaScript-Bibliothek, die den Zustand einer App als eine nur lesbare Objektkstruktur modelliert. Zustandsänderungen werden als reine Funktionen implementiert, die von einer Aktion und dem alten Zustand auf den neuen Zustand abbilden. Das ist weit weg von den Standardbibliotheken in iOS: Sei es in Core Data oder UIKit, fast überall treffen wir auf Methoden, die den Zustand von Objekten ändern. In diesem Vortrag geht es darum, was wir bei der Verwendung der Standardbibliotheken von Redux lernen können.
Die ganze Steckverbinderbranche hat sich auf das Thema „smart Connectivity“ gestürzt. Dabei soll sich diese elektromechanische Komponente – der Steckverbinder – angeblich zu einem intelligenten und kommunikativen Internetbewohner wandeln. Aber am Steckverbinder trennt sich die Spreu vom Weizen, denn es macht nur in den wenigsten Fällen Sinn, den passiven Stecker zum IoT-Device zu machen. Es macht allerdings in ganz besonderen Anwendungen sehr großen Sinn: Schließlich kann es zu Effizienzsteigerung durch höhere Verfügbarkeit einerseits, aber vor allem zu einem einfachen und sicheres Handling andererseits beitragen. In Smart Factories wird der Steckverbinder zu einer smarten Schlüsselkomponente für die Wandelbarkeit im modularen Aufbau. Doch diese Anwendungen machen auch in Zukunft deutlich weniger als 1 % aller Steckverbinder-Applikationen aus.
Die Betrachtung von Steckverbindern kann exemplarisch gesehen werden. Denn es geht um die Nutzung der passenden „Wünschelrute“, um herauszufinden, welches „Ding“ ins Internet kommt. Und mit dieser passenden Wünschelrute – wenn sie funktioniert – stellt sich dann heraus, dass definitiv nicht jedes Ding, jede Komponente intelligent und ein Internetbewohner wird. Es stellt sich heraus, dass es darum geht, zusätzlichen und nachvollziehbaren Nutzen zu generieren, wenn eine Komponente erfolgreich im IoT mitspielen soll. Am Steckverbinder ist das alles gut nachzuweisen.
Die Entwicklung mobiler Anwendungen für Android mit Continuous Delivery in Einklang zu bringen, stellt eine große Herausforderung dar. Wie wird das Android-SDK gewartet? Wie wird die App zu HockeyApp oder PlayStore veröffentlicht? iOS-Entwickler verwenden hierfür fastlane, was in Android noch relativ unbekannt ist. In dieser Session wird gezeigt, wie fastlane eingesetzt wird um diese Herausforderungen anzugehen, beispielsweise wie automatisiert Screenshots für PlayStore erstellt werden, sodass die Developer sich dank der Automatisierung auf die eigentliche Entwicklung der Anwendung konzentrieren können.
At I/O 2017, Google presented Room, a new ORM which is quite different from existing ones. With its unique features it sets itself apart from others and polarizes the opinions of developers.
Another newcomer is ObjectBox, a NoSQL/Object database that claims to be faster than any other database. Just like ORMs it offers relations, queries, indexing, and some special features.
This talk gives you an extensive update on new persistence developments. Learn about pros and cons to help you choose for your next Android project.
Auto-code generation is a very powerful tool that every software engineer should use. It avoids coding that tedious and repetitive boilerplate that nobody should ever have to write, primarily because it is usually uninteresting code and highly prone to error. This talk will briefly show the annotation processor. We will understand what are the annotation processors and their defined role and then focus on how to get started writing your own annotation processor to generate source code automatically, as well as how popular frameworks such as Dagger, Butterknife or such work in the background.
Sie verwenden RESTful Web Services zum Bereitstellen von Daten für Ihre App? Sie denken sich: Ja klar, was denn sonst?. Dann sollten Sie sich näher mit GraphQL beschäftigen. GraphQL ist eine Abfragesprache und wird u. a. von Facebook, GitHub und Shopify als Alternative zu RESTful Web Services eingesetzt. In dieser Session erfahren Sie, was GraphQL ist und welche Vorteile sich durch dessen Verwendung für Sie ergeben. Darüber hinaus sehen Sie, wie GraphQL client- und serverseitig verwendet werden kann. Sie lieben REST? Sie hassen REST? Sie befinden sich gefühlsmäßig irgendwo dazwischen oder denken sich: REST, what else? Wagen Sie den Blick über den Tellerrand! Und vielleicht verwenden auch Sie nach dieser Session GraphQL für Ihre nächste Anwendung.
In dieser Session zeige ich einige coole Beispiele, was man mit ARKit unter iOS 11 alles anstellen kann. Die Grundlagen von ARKit wie die Ebenenerkennung, die verschiedenen Ausrichtungsmodi (World Alignement) und die automatische Szenenausleuchtung werden erklärt. Für die meisten AR-Projekte bietet sich eine Kombination mit SceneKit an, um dreidimensionale Inhalte darzustellen. Wir bauen live in Xcode ein kleines Game, das ARKit mit SceneKit und einer Physics-Simulation verbindet.
Wir schreiben inzwischen das Jahr 2018. Eigentlich müssten wir schon alle in Smarthomes leben, unsere Bestellungen ins Heim geliefert bekommen und höchst energieeffiziente (Heizungs)steuerungen in Betrieb haben, hätten die Analysten vor einigen Jahren Recht behalten. Tatsächlich ist das gros der Homes bis eher nicht smart und wir finden eher ein leicht lineares Wachstum als den berühmten Hockeystick vor. Diese Keynote versucht Antworten darauf zu finden, warum sich der Markt nach wie vor eher verhalten entwickelt und bisher der große “Knall” ausgeblieben ist. Trotzdem gibt es viel Positives zu berichten und das Licht am Ende des Tunnels wird heller … |
It doesn’t need any explanations how important it is to write unit tests on daily basis. Many of us write tests, while the majority just do not realize they do it wrong or in illegible way. We will present the best practices and propose a few tools that may help you write clear and readable unit tests using Kotlin.
In this session, I will show you how to build great apps for the assistant using Dialogflow and Actions on Google. Building Actions with Dialogflow is deceptively easy, but building great apps that meet the quality bar requires in-depth knowledge of the design guidelines we defined. In this talk, we're going to walk you through the best practices for VUI design and will show you how to apply these to your Assistant apps. We'll cover topics such as handling new and returning users, robust error handling for no-input and no-match situations, and being able to repeat information for the user. We will also look at strategies for implementing multi-lingual apps and how to design for multiple surfaces at the same time.
TEIL UNSERER COMMUNITY WERDEN
UND IMMER UP TO DATE BLEIBEN!
schließen