Dateien
Viele Blinde in der Schweiz besitzen ein Smartphone, welches sie dank "Voice-over" bedienen können. Unsere App soll dem Nutzer POI-Daten (Points of Interest: Restaurants, Läden usw.) auf eine neue Art ausgeben. Man soll mit dem Smartphone in eine Richtung zeigen können und die App liest einem
Team:
Lukas Reitemeier (PL), 8852 Altendorf (SZ)
Daniel Stalder, 8836 Bennau (SZ)
Lukas Bühler, 8808 Pfäffikon (AG)
Typ:
Freizeitprojekt
Kategorie:
Web/Words/Codes/Apps/Games
Alterskategorie:
Seniors (17- bis 20-Jährige)
Awards:
Jury Award
DART 17 Next Gen Award
Ausführliche Projektbeschreibung
App-Name: SpeakingRadar
Die Idee, POI-Daten per Sprache auszugeben, entstand erstmals bei der Themenfindung für eine Maturaarbeiet an der KSA im Jahr 2016. POI's, also sogenannte «points of interest», sind Orte wie Restaurants, Parks, Bushaltestellen etc. und werden zum Beispiel von Google in Karten eingebettet.
Die Grundidee war, dass man mit einem Smartphone in eine Richtung zeigen kann und einem dann alle interessanten Orte, inklusiver ihrer Entfernung, per Sprache ausgegeben werden.
Ein Smartphone verfügt bereits über alle dazu notwendigen Komponenten, wie: GPS, ein Kompass (Magnetometer), eine Internetverbindung zur Abfrage von POI-Daten von einem Server und natürlich Lautsprecher, um den erzeugten Text als Sprache auszugeben.
Wichtig ist noch zu erwähnen, dass die App auf keinen fall nur für blinde Personen gemacht ist. Sie soll für alle sein, die ihre Umgebung auf eine neue Art erkunden wollen.
Unsere App soll im Rahmen dieses Projektes eine Art «Proof of Concept» darstellen. Wir wollten abklären, ob so eine App möglich ist und ob überhaupt ein Bedarf dafür besteht.
Im Verlauf der Arbeit ist es uns gelungen einen Prototyp zu erstellen, der die Grundidee umsetzt.
Der Prototyp wurde mit Janka Reimmann am 29.03.2017 getestet. Sie ist blind und hat sich netterweise dazu bereit erklärt ein Feedback und Anregungen zur App zu geben. Leider waren die ausgegebenen Orte am Test-Ort eher uninteressant und die meisten POI’s gingen verloren, was daran lag, dass es am Bahnhof Zürich Stadelhofen extrem viele POI’s gibt und diese bei der Abfrage auf mehrere «json-pages» aufgeteilt wurden, wobei wir nur eine ausgelesen haben. Der vorherige Test Ort hatte weniger POI’s, wodurch das Problem vorher nie ersichtlich wurde.
Trotz allem hat Janka erfahren wie die App funktioniert und gab uns super hilfreiche Tipps und Verbesserungsvorschläge.
Informationen zu den verwendeten Technologien:
Die App wurde mit Xcode programmiert, da die meisten Blinden ein iPhone besitzen und somit IOS als Betriebssystem verwenden.
Um die Übersicht über den Code und dessen Veränderungen nicht zu verlieren, wurde das Project regelmässig auf github.com/reitemeier/B_APP hochgeladen (dort kann man auch den aktuellen App-Code anschauen). Mit einem sogenannten "GitHub Repository", kann man jede Veränderung des Codes in den verschiedenen "Commits" nachvollziehen. So konnten wir untereinander die Neuerungen und Änderungen besser verstehen oder auch zu einer funktionierenden Version des Codes zurückkehren, wenn etwas schiefgelaufen ist.
Die POI-Daten werden von der Google Places API über einen URL-Request bezogen. Wir glauben, dass Google über die kompletteste und beste Datenbank von POI-Daten verfügt.
Um den Code zu testen, wurde entweder ein iPhone-Simulator au dem iMac benutzt oder ein iPhone 5.
Informationen zur Organisation der Teamarbeit
Programmiert wurde die App von allen drei Teammitgliedern, wobei sich Lukas Bühler vor allem mit der POI-Serverabfrage und deren Auswertung beschäftigt hat, Daniel Stalder massgeblich bei Auslegung und Gestaltung der App beteiligt war und Lukas Reitemeier, als Initiator des Projekts, die Arbeit organisiert hat.
Informationen zu den verwendeten Grafiken, Fotos, Sounds, Videos etc.
Die App beinhaltet, bis auf das Icon, keine Grafiken, da die App ursprünglich für sehbehinderte Personen konzipiert wurde und minimalistisch sein soll.
Das App-Icon wurde nach ein paar Entwürfen eigens designt und mit Photoshop erstellt.
Das Video zur Dokumentation des Projekts wurde mit Adobe Premiere Pro geschnitten.
Tagebuch der Projektarbeit
Die Idee zur akustischen Ausgabe von POI-Daten entstand ursprünglich während der Themenfindung für eine Maturaarbeit im Jahr 2016 an der KSA Pfäffikon.
Am 28. Januar 2018 kamen Lukas Bühler und Daniel Stalder als kompetente Partner hinzu und das Projekt wurde sogleich eingereicht. Bugnplay sollte dem Projekt einen Rahmen verleihen und es durch einen festen Abgabetermin vorantreiben.
Programmiert wurde regelmässig seit dem 23. Februar an den Wochenenden.
- Januar 2018: Die GPS-Position konnte erstmals ausgegeben werden.
- Am 24. Februar gelang zum ersten Mal die Abfrage und das Ausgeben der POI-Daten über die Google Places API.
- Am 5. März funktionierten die wichtigsten Komponenten der App: GPS-Positions-Abfrage, Kompasswinkel-Abfrage, POI-Server-Abfrage, Ausgabe des Textes als synthetisierte Sprache, die Konsole oder als Text auf dem Bildschirm.
- Am 11. März wurde ein erster Entwurf für den Algorithmus gemacht, der den Output generiert aus den Inputdaten: GPS-Position, Kompass-Winkel und POI-Daten.
- Am 29.03.2018 wurde der erste Prototyp der App mit Janka Reimmann getestet.