Home » Apps » Skype: Live-Translation über die Stimme

Skype: Live-Translation über die Stimme

Skype hat im Rahmen einer kleinen Pressekonferenz jetzt eine neue, durchaus sehr nützliche Funktion vorgestellt.

Über das neue Feature können auch Nutzer unterschiedlicher Sprachen bequem und unkompliziert miteinander kommunizieren. Die Übersetzung funktioniert über die Stimme. Auf der Bühne wurde das Ganze so demonstriert, dass eine Person in ihrer Sprache spricht, das Ganze dann in einer guten, aber nicht perfekten Übersetzung für den Gesprächspartner akustisch aufbereitet wird.

Noch in diesem Jahr wird Skype das Feature – erst auf Windows 8, dann auf allen Plattformen – als Beta ausrollen.

Hier klicken, um den Inhalt von player.theplatform.com anzuzeigen

[Direktlink]

-----
Willst du keine News mehr verpassen? Dann folge uns auf Twitter oder werde Fan auf Facebook. Du kannst natürlich in Ergänzung unsere iPhone und iPad-App mit Push-Benachrichtigungen hier kostenlos laden.

Gefällt Dir der Artikel?

 
 
Philipp Tusch
twitter Google app.net mail

19 Kommentare zu dem Artikel "Skype: Live-Translation über die Stimme"

  1. Techniklike 28. Mai 2014 um 08:13 Uhr ·
    Ist ja schön das die jetzt erst für ihre Platform das Feature bringen
    iLike 1
  2. Hans 28. Mai 2014 um 08:14 Uhr ·
    Finde ich gut. 5 Sterne.
    iLike 4
  3. didier drogba 28. Mai 2014 um 08:17 Uhr ·
    dass die technologie bald sogar dolmetscher ersetzen wird ist traurig aber wahr.
    iLike 2
    • iFutz 28. Mai 2014 um 08:36 Uhr ·
      Ich glaube das es da noch Jahre brauch, um wirklich alles ordentlich übetsetzen zu können und Apple ;-)
      iLike 6
      • Nick 28. Mai 2014 um 21:07 Uhr ·
        Ja genau und Apple. Und am Ende müssen die Nutzer bluten und 900 Kröten für das Feature blechen, Jahresabo natürlich :P
        iLike 0
    • Viktor Frankenstein 28. Mai 2014 um 08:57 Uhr ·
      Träume weiter! Ich habe Japanisch studiert bis zum Bakk. phil., wie es sich mit dem Stipendium finanziell ausging, und kann dir garantieren, dass das niemals passieren wird. Nicht mal in den nächsten 150 Jahren! Vielleicht sogar niemals in der Geschichte der Menschheit. Und niemals wird diese Technologie einen Dolmetscher zur Gänze ersetzen können – LÄCHERLICH ZUM QUADRAT. Siri versteht ja nicht mal die Hälfte. Die hat so oft ihre Tage. Bei solchen Präsentationen wird die Software geschult und der Sprecher redet simple und deutliche Sätze. Das wird alles wieder und wieder geprobt. Aber selbst Menschen gleicher Sprache und Kultur reden doch dauernd aneinander vorbei. Deshalb: NO WAY!!!
      iLike 6
      • RenardPale 28. Mai 2014 um 09:46 Uhr ·
        Deine Argumentation, oder eher das was man als solche vermuten kann, finde ich da nicht schlüssig. Es lässt sich auch folgendes auswerfen: Das was, was in den angewandten Naturwissenschaften wie Chemie und Physik vor 50 Jahren gelehrt wurde, war damals das Höchstmaß von Forschungsarbeit. Einige Nobelpreise gingen für Dinge raus, die jahrelang im Labor ausgearbeitet werden mussten, Grundlage hierfür lang verinnerlichte Konzepte und Regeln. Heute lässt sich Peptidsynthese und Aminosäurensequenzierung in 24 Stunden im Automaten statt 3 Monaten im Glaskolben durchführen. Und für das Thema bekommst du nicht mal mehr ne Bachelorarbeit durchgewunken.
        iLike 4
      • webbloger 28. Mai 2014 um 14:33 Uhr ·
        Ich sag nur Star Trek. -> Universalübersetzer
        iLike 1
      • didier drogba 28. Mai 2014 um 16:52 Uhr ·
        bleib mal geschmeidig. du hast die pointe meiner aussage ganz sicher nichz verstanden. kein grund zur aufregung du kriegst deinen job schon irgendwie.
        iLike 0
      • Viktor Frankenstein 28. Mai 2014 um 17:02 Uhr ·
        @didier: Meins du mich? Gefällt mir, das mit dem geschmeidig bleiben. Ich kriege in dem Leben sicher keinen Job als Dolmetscher. Denkst du, nach 4 Jahren Sprachstudium hast du da eine Chance? Da müsstest du locker noch mal 5 Jahre an die Uni für Translationswissenschaften. Sind ja keine Pfeifen, die das machen. Noch dazu bin ich seit 7 Jahren außer Übung. Bin auch schon zu alt um da weiterzumachen und Lust habe ich auch keine. Aber schau dir doch mal Bubble Fish an oder gib dir Siri oder all die anderen Systeme. Die sind doch nach all den Jahren – und Spracherkennung gibt es jetzt schon einige Jahre – meilenweit entfernt davon, so gut zu sein. Sie sind nicht schlecht und man sollte unbedingt da weitermachen, aber einen Menschen ersetzen die nie. An dem Tag, an dem eine Maschine wie ein Mensch denken kann, ist der Tag, an dem Skynet zum Leben erwacht. Das kann nur eine KI.
        iLike 2
      • Güni 28. Mai 2014 um 23:15 Uhr ·
        Hi Frankenstein Junior, du scheinst etwas betriebsblind Dank all deiner Studien geworden zu sein ;). Es geht hier doch wahrhaftig nicht um 100% lexikalisch, grammatikalisch und meinetwegen auch semantisch korrekte Übersetzung, sondern darum, dass Menschen verschiedener Sprachräume, die übers Internet kommunizieren wollen oder müssen, sich zumindest etwas besser zu verstehen. Wenn ich mit einer Japanerin in Skype spreche, verstehe ich nur Bahnhof – und sie ebenso. Das gleiche gilt z.B. für ungarisch… Dank Google Translate bin ich aber schon heute in der Lage, japanische und ungarische Websites besuchen zu können und einigermaßen zu verstehen, worum es geht! Ich habe dadurch u.a. schon bei amazon.co.jp einen account angelegt und erfolgreich einiges bestellt :). Und genau auf dieser Ebene ist die Skype-Übersetzung angesiedelt.
        iLike 0
      • Viktor Frankenstein 28. Mai 2014 um 23:31 Uhr ·
        @Güni/ Kleiner Tipp: um sich mit Menschen anderer Kulturen unterhalten zu können, gibt es ein besseres Hilfsmittel, eine Verkehrssprache. Die wichtigste überhaupt ist Englisch. Also aufpassen in der Schule. Was willst du mit einer Software, die voller Fehler ist? Was soll man da mit Menschen kommunizieren können? Und was denkst du, was dabei rauskommt? Sicher keine Freundschaften. Das mit dem Konto bei Amazon ist nicht übel, aber das war ja keine Sprachsoftware und die Seite ist vom Prinzip her wahrscheinlich ähnlich wie die auf Deutsch. Da konntest du nachvollziehen, wie das Ganze funktioniert – tolle Leistung immerhin. Aber wenn man sich mit Menschen unterhalten soll, wird das nix. Übrigens verstehe ich Japaner auch nur mehr, wenn sie ganz langsam reden. Dauert eben, bis man eine Sprache erlernt. Und man muss ständig dran bleiben. Immerhin beherrsche ich noch den Smalltalk nach sieben Jahren Abstinenz. Aber über Skype richtig miteinander reden? Über eine Übersetzungssoftware? Nee! Da verlasse ich mich auf mich und ein Wörterbuch. Allein auf Englisch haut das doch nach all den Jahren noch nicht annähernd hin. Versuch es doch mal auf YouTube. Ganz schlechte Ergebnisse. Das Hauptproblem ist doch, dass gerade im Deutschen ein Wort so viele verschieden Positionen im Satz einnehmen kann. Je nach Sinn und Betonung. Wie will man da ein System finden? Eine Maschine ist nicht wie der Mensch – intuitiv und flexibel. Computer sind toll, aber werden nie an uns herankommen, was Gefühl, Flexibilität, Verständnis und Mitgefühl anbelangt. Das braucht man aber alles.
        iLike 1
  4. Calisto 28. Mai 2014 um 08:46 Uhr ·
    Gute Idee, aber den Synchronstart auf allen Plattformen fände ich besser. Schon aus Marketinggründen. Immerhin ist Skype Microsofts einziges, einigermaßen offenes Produkt, welches ja sogar für Linux vorliegt.
    iLike 1
  5. TM 28. Mai 2014 um 09:14 Uhr ·
    Deutsch -> Englisch funktioniert ja echt gut aber Englisch -> Deutsch…. Naja ;)
    iLike 2
    • Liam 28. Mai 2014 um 09:32 Uhr ·
      Sie spricht ja auch seeeehr langsam und deutlich, verwendet dabei aber keine Redewendungen, sondern nur einfache, kurze Sätze, die meist ohne große Probleme übersetzt werden können. Würde er auch so reden, wäre Englisch ≫ Deutsch sicher auch kein Problem. Aber wer redet im Videochat schon so, als sei der Gegenüber schwer von Begriff? :P
      iLike 1
      • Viktor Frankenstein 28. Mai 2014 um 10:12 Uhr ·
        Wirklich super wäre ein Lippenlesegerät für Menschen mit Sprachbehinderung. Da könnte man mal anfangen mit einfachen Sätzen.
        iLike 3
  6. Carsten 28. Mai 2014 um 12:04 Uhr ·
    Da die Streams vermutlich über die Server von MS laufen, werden wohl selbstlernende ( oder und unterstützte ) Algorythmen mitlaufen, so dass das System mit jedem Gespräch besser wird. Sicherlich spielt der Standort (Dialekt) bei der Auswertung eine Rolle. Letztendlich hat Sprache aber viel mehr Aspekte als nur die Wörter. Bin über die Witze gespannt. „It’s raining cats and dogs.“ Lol Bin gespannt!
    iLike 0
    • Paul 28. Mai 2014 um 13:28 Uhr ·
      Oder Redewendungen: das werde ich fuchsteufelswild…. ;)
      iLike 0
    • Viktor Frankenstein 28. Mai 2014 um 17:05 Uhr ·
      Idiomatische Redewendungen sind ja kein Problem. Die werden einfach programmiert wie Vokabeln. Oder wie bei Siri:“Ich bin nicht sicher, was du meinst.“
      iLike 1

Leider kann man keine Kommentare zu diesem Beitrag mehr schreiben.