Bemühungszusage: Ein Computer versucht CW zu lernen

  • (Vorabdruck: Der Artikel wird in der CQ-DL erscheinen.)


    Morgens sitzt der OM mit seiner Frau am Frühstückstisch und lässt sich den Kaffee und die Brötchen schmecken. Er liest eine Zeitung, die nichts Neues aus der Welt berichtet, während seine Gattin ihn über den bevorstehenden Einkaufsbummel informiert. Im Hintergrund hört man ein Kurzwellenradio. Es tummeln sich einige Stationen auf dem Band, aber der Artikel über die ... Plötzlich verändert sich die Haltung des OM: Er sieht zum Radio hinüber. Eben hatte er zweifelsfrei eine Station erkannt, die ihm seit langem im Log fehlt. Er verschüttet seinen Kaffee und rennt zum Shack.



    Was war passiert?
    -----------------


    Wenn er sich auf das Gehör alleine verlassen hätte, hätte er keine Chance gehabt, das Rufzeichen aus dem Geräuschpegel herauszufiltern. Wie ein Stereomikrofon hätte er alle Geräusche der Küche getreulich registriert, aber keinen Alarm geschlagen. Somit waren es nicht die Ohren, sondern das nachgeschaltete Hirn, dass alle eingehenden Töne analysierte und filterte: Zeitungsrascheln, Brötchenknacken, Kesselpfeifen, Frauengeplapper ... alles uninteressant und unterhalb der Aufmerksamkeitsschwelle. Aus dem Radio tönten vier Stationen gleichzeitig und dann "CQ CQ CQ DE FO..."


    Wenn man als angehender CWist über die Buchstabierphase in CW hinausgekommen ist, beginnt die Magie und man kann einzelne Buchstaben erkennen. Es ist nicht mehr die Punkt/Strichfolge, sondern ein Rhythmus oder eine Melodie, die sich einprägen. Tonhöhen und Melodieerkennung (Abfolge von verschiedenen Tönen) werden nicht im Ohr, sondern u.a. in der primären Hörrinde verarbeitet. So kann man leicht aus einer Klangkakaphonie einzelne Töne heraushören - filtern und unser Gehirn auf diesen Reiz fokussieren.


    Wenn ein CW-Buchstabe als Rhythmus erkannt wird, werden sehr viele weitere Hirnareale aktiviert, die sogar den zuständigen Bewegungsbereich (Fußklopfen) umfassen.


    Aber der erste Buchstabe in der Abkürzung "CQ" in kodiert in Morsezeichen ist noch nicht besonders interessant. Ein geübter CWist hört keine Buchstaben mehr, sondern Q-Codes, Abkürzungen und Worte. Die Melodie/der Rhythmus der Buchstabenfolgen sind durch das Training verinnerlicht und liegen als "komplexe Muster" vor, die als Ganzes erkannt werden ("pattern matching") werden. Doch die Verarbeitungsleistung des Gehirns geht noch weiter. Das DIT-DIT-DIT-DAH Motiv im Kopfsatz von Beethovens 5.Symphonie ist Musik (Melodie und Rhythmus), für den "einfachen" OM ist dies allerdings nur der Buchstaben "V" .


    Wenn wir deutsche Funkamateure "CQ" hören, verbinden wir dies mit der Übersetzung "Allgemeiner Anruf". Und genau diese Verbindung haben wir unserem Hirn in den Sprachverarbeitungsregionen an trainiert. Es gibt fast keinen Unterschied zwischen dem CW-CQ und dem vom Menschen gesprochenen "CQ". Unser Gehirn wandelt diese Tonfolgen in Verständnis um.



    Aber alle OMs der Welt sprechen die Sequenz "CQ" im Sprechfunk anders aus: "Sie Kuh", "ceku", "zieh Kuh" ... Nun haben wir ein weiteres Problem: Varianten der Ausprache oder Dialekte Doch wir sind nicht erst seit gestern Funkamateure und haben schon fleißig trainiert. Wir haben viele Patterns abgespeichert, die sich alle mit dem "CQ", das wir er warten, spiegeln. So werden in unserem Kopf die Varianten immer wieder in den Begriff "Allgemeiner Anruf" übersetzt.


    Bei der Produktion von Varianten des sprachlichen Ausdrucks kann der geübte CWist locker mithalten: Er gibt schnell, langsam, ohne Pause, vergisst einen Punkt, ... und trotzdem verstehen wir es, da der Grundrhythmus und die Melodiekontur ähnlich sind. Außerdem stehen wir in einem Kommunikationsszenario und haben eine berechtigte Erwartungshaltung: Jetzt sollte mal einer "CQ" rufen!



    CW als Sprache
    --------------


    Wenn wir CW als Kommunikationsszenario betrachten, dann ist CW unser Medium oder unsere Sprache. Was macht CW als Sprache aus? Zuerst die Kodierung der Buchstaben, die ein besonderes Medium benutzen. Aus diesen Buchstaben werden Worte gebildet, deren Kern einige feste Begriffe umfassen, z.B. Q-Codes. Die eingeschränkte Syntax(z.B. "CQ de XXX") folgt den Erfordernissen des uns zur Verfügung stehenden Mediums. Bei Klartext-QSOs gelten die Regeln der jeweiligen verwendeten Sprache, die wir verinnerlicht oder gelernt haben (Englisch).


    Der geübte CWist kann einen "CW-Satz" wie das Gespräch am Nebentisch in einem Restaurant verfolgen. Über das Ohr bis zum (Sprach)Verständnis wird die Übersetzungsleistung vom Gehirn geleistet. Im Sprachzentrum klingeln nach dem "unbewusst" oder nebenbei aufgenommenen "CQ CQ de " bei "FO..." plötzlich die Alarmglocken, die der OM vorher "programmiert" hatte.


    Sein Sprach-, Sprech-, motorisches und Erinnerungsvermögen sind miteinander vernetzt. Seine Wissensaneignung funktioniert "nur" über die Verknüpfung von neuen Fakten an alte, vorhandene "Wissensnetze". Somit wird bei der Buchstabenfolge "FO" augenblicklich die Liste der fehlenden Calls aufgerufen.


    Da kommt in unserem Hirn einiges an "Rechenleistung" zusammen, um den armen OM zu veranlassen seinen Kaffee zu verschütten.


    73 de Hajo

    Einmal editiert, zuletzt von dl1sdz ()

  • (Vorabdruck: Der Artikel wird in der CQ-DL erscheinen.)


    Der Rechner will CW lernen
    --------------------------


    Morgens sitzt der Rechner im dunklen Shack und überwacht das 30m Band. Er kennt aus seinem Logbuch die gearbeiteten und fehlenden Stationen und Länder. Auch er liest auf dem Band den CQ-Ruf, aber dann ist die Hölle los und er versteht gar nichts mehr. Er ist sauer, aber da kommt sein Herrchen, um ihm einige Tricks zu zeigen, die der geübte CWist schon lange kennt.



    1. Versuch
    ----------


    Der Rechner wird über den Mikrofoneingang mit akustischen CW-Zeichen auf einer bestimmten Frequenz (600 Hz) gespeist. Wir teilen ihm mit, dass die Zeichen mit der Geschwindigkeit von 25 Buchstaben pro Minute gesendet werden.


    Der Rechner kann rechnen und notiert sich als
    Konstanten:
    1 DIT = 240 ms
    1 DAH = 3 * DIT = 720 ms
    1 Pause zwischen DIT und DAH = 1 DIT = 240 ms
    1 Pause zwischen Buchstaben = 3 * DIT = 1 DAH = 720 ms
    1 Pause zwischen Wörtern = 7 * DIT = 1680 ms
    Frequenz = 600

    START
    Höre auf der Frequenz
    WENN ein Signal erkannt wird, miss die Länge
    WENN das Signal 240 ms dauert,
    DANN speichere ein Punktsymbol
    WENN das Signal 720 ms dauert
    DANN speichere ein Strichsymbol
    WENN die Pause 240 ms dauert
    DANN gehe auf START
    WENN die Pause 720 ms dauert
    DANN vergleiche die gespeicherte Strich/Punktfolge
    mit einer Tabelle des Morsealphabets
    Gib den gefundenen Buchstaben auf dem Monitor aus
    Gehe zu START
    ... usw.

    Der Rechner ist erstaunt, mit welcher Leichtigkeit er plötzlich Morsezeichen dekodieren kann.



    2. Versuch
    ----------


    Der Rechner soll nicht übermütig werden. Er bekommt wie gewohnt ein Signal auf einer Frequenz geliefert. Wir streichen ihm aber die Konstanten. Er weiß nicht mit welcher Geschwindigkeit die Morsezeichen gegeben werden. Er muss diese Konstante durch Erfahrung lernen.


    Ein leichtes Rauschen im Band, der Computer döst vor sich hin. Doch da misst er auf der vereinbarten Frequenz einen Ton. Der Rechner beginnt mit der Zeitmessung. Wenn das Signal verschwindet stoppt er seine Uhr und der Zeitwert wird in eine Tabelle eingetragen.


    Doch sofort wird der Zeitmesser angeworfen und die Länge der Pause vermessen und wieder in die Tabelle eingetragen. Das nächste Zeichen kommt. Die Zeit wird genommen ...
    WENN der Rechner ein Zeichen mit der Dauer X findet
    UND WENN er ein Zeichen mit der Dauer 3 * X erkennt
    UND WENN die Pausen Vielfache der Dauer X sind,
    DANN kann er die Zuweisung zu Dit und Dah machen, und seine Konstanten eintragen.
    Da er eine konstante Geschwindigkeit gefunden hat, kann er nun mit dem Programm seines ersten Versuches weiterarbeiten,



    3. Versuch
    ----------


    Der Rechner ist immer noch unterfordert. Wir liefern ihm ein Signal, sagen ihm aber nicht, wo das Signal in einem 500 Hz breiten Segment auftauchen wird.


    So langsam kommt er Rechner ins Schwitzen. Zu jeder Millisekunde kommt ein komplexes Signal mit der vereinbarten Bandbreite an. Der Rechner muss nun jede einzelne der 500 Frequenzen untersuchen, ob ein Signalpegelanstieg zu verzeichnen ist. Hat er diesen Anstieg gefunden, darf er sich diese Frequenz als neue Frequenzkonstante merken und darf wieder mit dem Gelernten aus dem zweiten Versuch fortfahren.




    73 de Hajo

  • (Vorabdruck: Der Artikel wird in der CQ-DL erscheinen.)


    4. Versuch
    ----------


    Der Rechner meldet Langeweile, obwohl die CPU schon zu tun hatte. Für uns kein Problem: Wir füttern ihn auf dem 500 Hz Bandabschnitt mit maschinen-generiertem CW unterschiedlicher Geschwindigkeit. Doch dieses Mal lassen wir gleichzeitig zehn verschiedene Signale in diesem Bandabschnitt palavern.


    Es wird ruhig im Shack, der Lüfter beginnt zu heulen und nichts kommt mehr.
    Dabei sind die Aufgaben vergleichbar mit dem dritten Versuch:


    1. Analyse des Bandes
    2. Erkennen eines anliegenden Signals
    3. Notieren der Frequenz
    4. Berechnen des Punkt/Strichverhältnisses
    5. usw.


    Aber es sind zu viele Signale. EIN Rechner kann nur EINE Aufgabe in derselben Zeiteinheit bearbeiten. Sicherlich kann er wie Rumpelstilzchen hin und her springen oder die berühmte Parallelverarbeitung starten, aber wir müssen es ihm mitteilen. So gönnen wir dem Rechner Unterstützung und setzen neuronale Netzwerke ein.


    Dies kann man z.B. mit künstlichen neuronalen Netze modellieren, die die Netze unseres Körpers nachbilden. Jedes Neuron ist eine autonome (Software-)Einheit, die selbständig lernen kann. Sie hat einen festen Auftrag und weiß, mit welchen anderen Knoten Nachrichten ausgetauscht werden können.


    Der Rechner scannt die Bandbreite und immer wenn er ein Signal entdeckt, übergibt er dieses Signal einem selbständigen "Software-Agenten". Seine Aufgabe: Überwache diese Frequenz und führe das Programm aus dem zweiten Versuch durch. Der Hauptrechner bekommt die Lösungen der Agenten geschickt und veröffentlicht sie.


    Der Rechner lehnt sich etwas zurück und schafft es.



    5. Versuch
    ----------


    Die neuronalen Agenten scheinen ihrer Aufgabe gewachsen zu sein. Wir nähern uns der Realität und schicken die 10 CW-Signale auf das 30m Band.


    Der Rechner analysiert den Bandbereich und verteilt seine Agenten. Aber es sind so viele Scheinsignale, dass er nicht mehr nur die 10 sondern 50, 100 oder 200 Agenten auf eine jeweilige Signalspitze ansetzen muss. Das war zu viel. Ein guter Agent weiß was er zu tun hat, wenn er nicht innerhalb von ein paar Sekunden ein valides Signal entdeckt: Er löst sich in Luft auf.


    Mein kleiner Rechner nimmt nur noch hin und wieder schöne Signale auf ...



    x. Versuch und die Realität
    ---------------------------


    Bis jetzt war der Rechner auf der sicheren Seite. Wir haben ihn nur mit Signalen gefüttert, die ordentlich mit einer Maschine generiert wurden. Nun lassen richtige CW-Operator die CW-Passagen produzieren. Es beginnt zu menscheln:


    - Pausen zwischen Zeichen sind ungleichmäßig:
    Die verwirft die gesamten Berechnungsgrundlagen für die maßgebliche Gebe-Geschwindigkeit. Wir können Toleranzen einführen, aber die Grenzen sind sehr eng gesteckt. Die Pause ist ein wesentlicher Bestandteil der Dekodierung.


    - Vergessene Abstände oder Zeichen:
    Hier versagt fast jeder Algorithmus. Der Rechner ist in der Lage, Signalfolgen in Buchstaben umzusetzen. Er kann noch Worte erkennen, aber er versteht die Bedeutung der Wort nicht. Ganz zu schweigen von Sätzen. Dazu müsste er Wissen haben, aber das gibt es in geringstem Umfang in kleinen Bereichen, deren Codierung sehr aufwendig ist. Da Funker aber über alles reden, benötigte er das Weltwissen eines OM, um einzelne Worte zu korrigieren. Für einige Ausnahmen ließen sich kleine Wörterbücher für normierte Phrasen erstellen, die zusätzlich konsultiert werden. Aber der Erfolg ist äußerst begrenzt.


    - Rufzeichenerkennung:
    Rufzeichen sind weltweit bekannt und könnten zum Abgleich verwendet werden, aber die Entscheidung ob das Rufzeichen DL1SDZ oder DL1SDY lautet, kann kein Rechner selbstständig entscheiden. Ein erfahrener CWist erkennt sein Gegenüber an der "Handschrift" ;)


    Aber wir sind noch lange nicht am Ende der Schwierigkeiten. Fügen wir noch die Unwägbarkeiten der Hochfrequenz hinzu:



    - Signalstärke:
    Ab welcher Signalstärke wird ein CW-Signal als valides Signal angesehen? Signalstärken von S3-9 sind kein Problem. Aber das Signal aus FO erreicht mit Mühe S1 und ist für einen Menschen leicht lesbar. Diesem machen auch Signale unter der Rauschgrenze keine Schwierigkeiten und erlauben erst viele DX-Kontakte. Der Rechner muss aber dann sehr viel mehr Agenten einsetzen, um alle möglichen Signale zu überprüfen. Er wird an die Grenzen seiner Rechenleistung kommen.


    - Einschwingphase des Signals:
    Es wäre schön, wenn ein Signal wie ein Kanonenschuss beginnt. Aber das ist nicht die Realität. Wenn man die Hüllkurven von CW-Signalen analysiert, erkennt man deutliche Ein und Ausschwingphasen. Da wir im Millisekundenbereich arbeiten und CW-Tempi um die 150 bpm Standard sind, dauert das Signal nur noch 45 mS. Wenn ich jetzt noch die Ein- und Ausschwingphase variabler Länge bei der automatischen Berechnung berücksichtigen muss, wird die Zuverlässigkeit der Geschwindigkeitskonstante gering und damit auch die Interpretation der Buchstaben.


    - Signalbreite:
    Bis jetzt sind wir davon ausgegangen, dass das Signal auf das Hertz genau geortet werden kann. Aber dies war auch eine theoretische Annahme. Sie können von 1 - 20? Hertz breit sein. Der Rechner muss sich entscheiden, welche Frequenz er analysiert. Das probate Mittel ist die Isolierung des Signals durch Filterung, Filterung, Filterung ... bis ein sauberes Signal auf einer Frequenz übrig bleibt. Mmmmh, ein gefiltertes Signal hat eine veränderte Einschwingphase ... s.o.


    - Unstabile Sender:
    Der Sender wandert ein paar Hertz hin und her. Für das menschliche Ohr ist das kaum bemerkbar, aber die CW-Software-Agenten drehen durch. Für sie hört das gefilterte Signal auf zu existieren und sie beenden ihre Arbeit. Drei Hertz weiter beginnt ein neuer Agent zu werkeln und versucht sich auf die seltsamen Zeichen einen Reim zu machen.



    Kann der Rechner CW oder nicht?
    -------------------------------


    Der Rechner braucht für eine Aufgabe, die ein erfahrener Operator beim Kaffee trinken nebenbei macht, Power, Power, Power und ist doch noch überfordert, da mathematische Formeln und Verfahren noch (nicht) mit der gesammelten Kompetenz eines menschlichen Gehirns mithalten können. Rechneranalyse und menschliches Verstehen sind zweierlei Paar Schuhe. Aber spannend ist es schon zu versuchen, die Realität analysieren zu lassen und sie anschließend ein bisschen besser zu verstehen.



    Nachbemerkung
    -------------


    Dieser Artikel entstand auf Anregung eines bereits abgeschlossenen Wettbewerbs bei Kaggle:
    Build a learning machine to decode audio files containing Morse code.
    https://inclass.kaggle.com/c/morse-challenge
    Er wurde von Mauri Niininen (AG1LE) initiiert, der auch u.a. den CW-Analysecode für das Programm FlDigi verbessert hat.


    Kaggle ist eine Plattform auf der Modellierungs- und Analyse Wettbewerbe ausgeschrieben werden, an denen sich weltweit Forscher und Firmen beteiligen können. An dem o.g. Wettbewerb hatten sich 11 Gruppen beteiligt, die zum Teil hervorragende Ergebnisse veröffentlicht haben.



    Literatur
    ---------


    ZEN UND DIE KUNST DER FUNKTELEGRAFIE Carlo Consoli, IKØYGJ
    http://www.qsl.net/ik0ygj/enu/ZARTGerman.pdf


    Juan G. Roederer: Physikalische und psycholakustische Grundlagen der Musik
    Robert Jourdain: Das wohltemperierte Gehirn: Wie Musik im Kopf entsteht und wirkt
    Weitere Literatur:
    Benade, Arthur H. Fundamentals of Musical Acoustics
    Levitin, Daniel J. This is your Brain on Music
    Pierce, John R. Klang mit den Ohren der Physik
    Temperley, David The Cognition of Basic Musical Structures
    http://de.wikipedia.org/wiki/M…ewer/File:Morse-Tafel.png


    http://de.wikipedia.org/wiki/K…nstliches_neuronales_Netz


    73 de Hajo

  • Moin,


    der PC ist bei menschlich erzeugtem CW IMMER der Verlierer. Und das ist auch gut so. 8) Ferner verlasse ich mich immer auf das Gehör, denn das liefert in der Mehrheit die richtigen Ergebnisse. Ja, ich kenne CW-Dekoder-Software und ja, ich kann sie richtig bedienen. ;) Und es gibt eine richtig gute und die kostet entsprechend Geld, weil sich der Autor die geleistete Arbeit bezahlen lässt. http://www.polar-electric.com/Morse/MRP40-DE/


    Dekoder benutze ich NIEMALS im QSO. Ich nutze sie gelegentlich um mal zu messen, wie fix die da gerade sind. Und AUSSERHALB von QSOs mal zu hören, wer denn wieder recht behalten hat. Ohr + trainiertes Gehirn oder der PC. In meinem Tempobereich bin ich es.


    Oder ich nutze ihn mal, um für mich viel zu fixen Text im Ohr zu haben und den parallel bei gut eingestelltem Programm mitzulesen. Auch das ist eine Art zu lernen. Die beste ist es immer noch, auf dem Band aktiv zu sein. Aber das geht nicht immer und Software ist überall dabei.


    Im QSO Dekoder zu benutzen lehne ich grundsätzlich ab. Wenn ich im QSO merke, dass das jemand macht, bin ich (nach extrem fixer höflicher Verabschiedung) sofort QRT. Dekoder lenken ab. Sie im QSO zu benutzen fordert noch mehr Konzentration als das reine QSO. Das Gehirn muss immer vergleichen. Was ist richtig? Habe ich richtig gehört? Hat der andere richtig gegeben? Ich habe es natürlich mal probiert - Nein, das geht für mich gar nicht.


    Nur dann, wenn ich mich auf meinen Partner voll und ganz ohne Hilfen einlasse, lerne ich dazu. Ich kenne viele OM, die finden es wie ich zudem als äusserst unhöflich. Gottlob gibt es Mittel und Wege, Dekoder zu verwirren, s.o..


    Das schlimmste aber: Derjenige betrügt sich restlos selbst. Glaubt sich sicher, weil er zur Not eine (allerdings unzuverlässige) "Krücke" in der Hinterhand zu haben scheint. Die ihm irgendwann mal fehlt und er dann Probleme bekommt. Wenn jemand noch nicht alle Zeichen so sicher kann, dass bspw. die scheinbar wahllose Zeichenfolge (wie bei einem Rufzeichen) ein Problem darstellt, dann heisst es: Üben, üben und nochmals üben. Bei Rufzeichen gemischte Fünfergruppen mit Ziffern und Schrägstrich.


    Dann ganz gezielt die schwachen Zeichen verbessern. Ja, ich habe sie immer noch und ab und an bremsen die mich aus. Es gibt geeignte Software um zu trainieren. Aber das nur am Rande.


    Ich kann am Küchentisch im Nebenraum halb eingeschlafen sein - wenn mein Call auch nur ansatzweise in CW im Rauschen auftaucht bin ich hellwach. Ist schon faszinierend, wie unser Gehirn mit den Pattern und alledem so funktioniert. Und immer noch ein Bereich, wo wir dem PC überlegen sind und noch eine Weile sein werden.


    Obwohl - Wenn ich die Skimmer sehe, die im Einsatz sind und ganze Bandsegmente mit leistungsfähigem SDR und Auswertungssoftware nutzen, dann ist das schon nicht schlecht, was es dort an Performance gibt. Nicht immer fehlerfrei, aber immerhin. Bei der Top-Contest-Station K3LR wird für den Skimmerbetrieb richtig viel Aufwand getrieben.


    Ein schön geschriebener Artikel, liest sich gut.

    73 Michael, DF2OK.

    ~ AFU seit 1975 ~ DARC ~ G-QRP-Club ~ DL-QRP-AG ~ AGCW ~ FISTS ~ QRPARCI ~ SKCC ~

    "Der Gesunde weiß nicht, wie reich er ist."

    3 Mal editiert, zuletzt von DF2OK ()

  • Hallo,


    jetzt kam bei Google+ doch noch eine Idee, die den Algorithmus verbessern koennte.


    Ich hatte ja schon von Wörterbüchern gesprochen, dachte dabei aber an ein großes incl. Call- Verzeichnis. Bei den Qrq- Leuten waren dann nur noch von 100-200 Worten, die man lernen muss als Einheit zu erkennen.


    Die Idee: Fuer ein Standard Qso reichen 60 Worte. Diese als Baum organisiert und mit einer kleinen Qso Grammatik verbunden, ... sollte gehen.


    Muss mal ein paar Qso-texte sammeln.


    73 de Hajo

  • Bei den Qrq- Leuten waren dann nur noch von 100-200 Worten, die man lernen muss als Einheit zu erkennen.

    Moin liebe Leserschaft,
    das interessiert mich jetzt mal, wie kommst Du auf diese Zahl? Ich unterhalte mich in CW über so gut wie alles und wage zu behaupten, dass mein Wortschatz grösser als 200 Wörter ist. http://www.duden.de/sprachwiss…es-deutschen-wortschatzes Oder gehst Du von diesem http://de.wikipedia.org/wiki/L…ter_der_deutschen_Sprache Artikel aus? Wer viele Wörter sucht, um seine Trainingssoftware zu füttern, der wird hier mehrsprachig fündig: http://wortschatz.uni-leipzig.de/html/wliste.html


    Allerdings habe ich nach Beratungen und eigenen Erfahrungen davon Abstand genommen, einzelne zusammenhangslose Wörter zu trainieren. So wie wir uns in flüssiger Sprache austauschen und sich der Sinn oft erst etwas später ergibt, so ist das auch bei "Sprechen" in CW. Das wird besonders dann deutlich, wenn wir mal ein Wort nicht so richtig verstanden haben. Ein paar Zeichen / Worte später kommt dann der Sinn ins Spiel. Das gilt allerdings für mehr flotte Tempi und Gehörlesen. Ich übe somit mehr komplette Klartexte, in dem ich Artikel aus diversen Texten via ebook2cw in passende Audiofiles verwandle.

    Muss mal ein paar Qso-texte sammeln. 73 de Hajo

    Gugst Du hier; habe die Arbeit schon mal gemacht. http://www.df2ok.privat.t-online.de/afu01a.htm#FILES bzw. die Datei hier: http://www.df2ok.privat.t-online.de/download/f1988txt.zip

    73 Michael, DF2OK.

    ~ AFU seit 1975 ~ DARC ~ G-QRP-Club ~ DL-QRP-AG ~ AGCW ~ FISTS ~ QRPARCI ~ SKCC ~

    "Der Gesunde weiß nicht, wie reich er ist."

  • Hallo Michael,


    es geht um die Verbesserung der Dekodierung von vorerst Standard Qsos. Hier ist der Wortschatz begrenzt und die Grammatik auch. Das laesst sich leicht in Software packen.


    Fuer Deine Klartext Qsos reicht der Duden nicht aus und die Parser fuer natuerlich-sprachliche Systeme versagen. Reduktion ist angesagt. Die Zahl 200 kam von det Seite der Qrq Leute basierend auf dem Englischen.


    Heute abend mehr.


    73 de Hajo

  • Stufe 10 der ganzen Morsedekodierung:


    Morgens sitzt der OM mit seiner Frau am Frühstückstisch. In der Hand hält er einen Zettel, den vorher der PC ausgespuckt hat. 5 neue DXCC´s hat der PC gearbeitet, die eQSL schon verschickt und auch die Antworten bekommen. Ah ja, es gab so nebenbei noch zwei neue Diplome und die Wahrscheinlichkeitssoftware diagnostiziert mir bis Weihnachten Platz 5 unter den "Automatisch arbeitenden OM´s".


    Während der OM sein Tablett in der Hand hält und die neusten Nachrichten liest, liefert die automatische Drohne die frische Milch vom Bauernhof, nimmt auf dem Rückweg gleich das Leergut mit und gewinnt er noch so nebenbei den Wettberwerb der selbststeuernden Modellflieger. Diese Technik genießt er dann zusammen mit seiner Frau auf dem Weg zur Arbeit, bei der das automatisierte Auto selbstständig fährt und die Leute direkt vor ihrem Arbeitgeber absetzt. Er verabschiedet sich mit einem Kuss von seiner Frau, setzt sich auf den bereitstehenden Bürostuhl, der ihn ohne Beschmutzung der Schuhsolen direkt an seinen Schreibtisch bringt, der Kaffee steht schon dampfend bereit und das Sprach-Hirn-PC-Interface hat sich schon ins neue Univers-Net eingeloggt.


    Ob der OM noch weiß, wie schön es sein kann, nur mit den Fingern " zu reden"? ob er das Gefühl der Nervosität noch kennt vom ersten handgegebenen QSO? Weiß er noch, wie geil es sich anfühlt, wenn man die erste Verbindung durch hat? Aber vielleicht weiß er auch schon nicht mehr, wie grüne Blätter und blauer Himmel aussehen und wie man Kaffee von Hand aufbrüht....


    :D


    Gruß Stefan

    Strengt euch an! Der Tag versaut sich nicht von alleine! :D

  • Hallo Stefan,


    sehr schoen geschrieben ... aber leider kann ich die 10. Stufe fuer mich nicht reklamieren ;( . Aber Du hast mich auf ein fehlendes Glied in meinem Artikel aufmerksam gemacht, das ich nach einer Diskussion mit der CQ DL sorgfaeltig herausredigiert habe.


    Im Titel hatte ich schon daurauf hingewiesen, das ich dem Computer keine reale Chance gebe, ein life Klartext-qso fehlerfrei zu dekodieren. Wenn in Deinem Arbeitszeugnis stehen wuerde: Er bemuehte sich" oder gar "Er versuchte sich zu bemuehen", wirst Du wohl nie eine Anstellung bekommen.


    So geht es mir weder um die Hervorhebung einer Technik (hier Decoder) noch um die Bewunderung der CWisten, die im Kopf noch Tempo 200 mitlesen.


    Ich habe implizit einen kognitionswissenschaftlichen Ansatz / Vorgehensweise gewaehlt, der, da er nicht ausgesprochen wurde, auch von Michael als Philosophie "abgetan" wurde.


    Ich halte, um mich zu wiederholen, CW als eine kleine Untermenge einer Sprache oder des Sprachverstehens, bei der alle Sinne des Menschen angesprochen werden: Tasten, Hoeren, Sehen, Verstehen, Sprache, Signal ... . Dies erleichtert mir das Verstehen der Zusammenhaenge, die in unserem Kopf bestehen, da ich mich nur mit wenigen Phaenomenen beschaeftigen muss. So ist die Basis z.B. ein fuenf Zeilen QSO und nicht "Auf der Suche nach der verlorenen Zeit"


    Wenn ich verstehen will, was in meinem Kopf beim Hoeren eines Morsesignals vom Ohr bis zum inneren Verstehen: "Ah, da ruft mich einer an ..." passiert, muss ich die verschiedenen Ebenen versuchen zu verstehen. Und hier hilft mir der Computer bzw. die Programmierung um Vorgaenge, die irgendwo in unserem Kopf passieren zu simulieren.


    Dieses Nachbauen/Simulation von Prozessen in unserem "Koerper" durch Software hilft unsere eigenes Vermoegen besser einzuschaetzen ... und zu bewundern zu welchen Leistungen wir faehig sind. Diese Prozesse koennen wir wir nicht oder nur sehr beschraenkt analytisch beschreiben.


    Nochmals: CW-Codierung, Uebresetzungsmaschinen, ... sind als solche langweilig, aber als Simulation menschlicher Transferleistung absolut spannend.


    73 de Hajo

  • Hallo Michael,


    in Ergaenzung zum oben Gesagten:


    Wenn man davon ausgehen wuerde, dass die Signalverarbeitung der CW;Zeichen auf dem Rechner klappt und er auch eindeutig Worte unterscheiden koennte, heisst dies aber immer noch, das diese Worte Buchstabenlisten sind. Also wenn dort "QTH" steht hat der Rechner noch nichts verstanden, waehrend der OM schon auf den Namen des Ortes wartet.


    Wir koennen also dem Rechner Sicherheit geben, dass er ein Wort richtig erkannt hat, indem wir ihm eine Liste zur Verfuegung stellen: QTH, QRT, QRS, Name, ... damit hat er wie oben gesagt nichts verstanden, aber wir koennen einen Schritt weiter gehen.


    "my name is xxx"
    "my qth is yyy"
    "my ant is zzz"


    Bei jedem dieser Kurzsaetze weiss der OM,
    - dass mit "my", die Person mit dem vorher genannten Rufzeichen gemeint ist
    - dass mit name, qth, ant eine Eigenschaft des anderen OMs bezeichnet wird und er wartet auf den Bezeichner.


    Fuer den Computer kann dies eine Rueckfallversicherung fuer seine richtige Interpretation der Signale sein.
    Wenn das Wort "my" kommt, muss das naechste Wort name oder qth oder ant sein
    dass naechste Wort ist "is"


    Und die CW-Maschine von Begali speichert dann je nach Eigenschaft das naechste Wort als Bezeichner in seiner Datenbank.


    Es waere also ein Hilfsmittel, das Sprach- und Weltwissen des OMs zur Interpretation desr Signalanalyse zu verwenden ... mehr nicht.


    73 de Hajo

  • Wäre es nicht einfacher, wir würden den Computer an einem CW-Contest teilnehmen zu lassen? Da gibt er nur das Rufzeichen der Gegenstation, 599 oder 5nn und noch eine Nr.

    vy73 Jürgen

  • Juergen, der CW-Skimmer kann das ... im Prinzip, sogar gleichzeitig mit mehreren Stationen und traegt diese auch noch in die Datenbank ein und meldet sie an das Cluster..


    Hajo

  • Aber nicht wenn ich mit der Handtaste "rumschmiere". Du würdest das aber verstehen.

    vy73 Jürgen

  • Aber nicht wenn ich mit der Handtaste "rumschmiere". Du würdest das aber verstehen.


    Hatten wir schon mal. Kauf Dir endlich ne EInhebel und alles wird gut :thumbup:


  • "my name is xxx"
    "my qth is yyy"
    "my ant is zzz"


    Das "my" und das "is" sind so überflüssig wie nix anderes!! X(


    Leider ist es eine dumme Angewohnheit geworden, diesen absolut redundante Kram mitzumorsen. Es sind vier ganze Buchstaben 'drin, bei denen sich noch vergeben werden kann. Leider gibt es zu viele negative Beispiele. Leider auch vom Ausbilder DJ4UF in seinen Online-Kursen. Schade. Zeigt es doch, dass der Sinn und Zweck von Q-Gruppen und anderen amateurfunküblichen Abkürzungen nicht mehr verstanden wird - auch schade. "More Information in Less Time" ist die Devise. Ben Kuppert würde sich im Grab umdrehen. Aber ihn und seine hervorragenden Werke in Sachen Betriebstechnik mit CW kennt kaum noch einer...


    Sorry, aber das musste mal 'raus.

    73 Michael, DF2OK.

    ~ AFU seit 1975 ~ DARC ~ G-QRP-Club ~ DL-QRP-AG ~ AGCW ~ FISTS ~ QRPARCI ~ SKCC ~

    "Der Gesunde weiß nicht, wie reich er ist."

  • Aber nicht wenn ich mit der Handtaste "rumschmiere". Du würdest das aber verstehen.

    :thumbup::thumbup::thumbup:

    73 Michael, DF2OK.

    ~ AFU seit 1975 ~ DARC ~ G-QRP-Club ~ DL-QRP-AG ~ AGCW ~ FISTS ~ QRPARCI ~ SKCC ~

    "Der Gesunde weiß nicht, wie reich er ist."

  • Zitat

    der PC ist bei menschlich erzeugtem CW IMMER der Verlierer. Und das ist auch gut so.


    Klingt nach einer Herausforderung ! ;)


    Also ich versuche mich gerade in der Bildererkennung. Mittels neuronaler Netze.
    Ziel ist es, Katzen zu erkennen. Später auch, Katzen, die ne Maus im Maul tragen, damit diese dann nicht durch die Katzenklappe wandern.


    Ich denke, diese Technologie wäre zur dekodierung von Signalen verschiedenster Art auch sehr geeignet.
    Ich frage mich schon z.B. des längeren, ob man mit hilfe von neuronalen Netzen nicht noch viel näher an das das theoretische Maximum vom Shannon-Hartley-Gesetz kommt...
    (mit CW alleine schafft man das jedenfalls nicht)

  • Hallo Jan,


    das sind genau auch meine Überlegungen.


    Im 4. Versuch erwähne ich auch die neuronale Netzwerk-Programmierung. Allerdings wird sie nach meiner Einschätzung von Alex (VE3NEA) nicht bei einem Signal eingesetzt, sondern bei der Analyse eines Bandabschnittes. (Es kann natuerlich sein dass er dies auch mit "einfachen" Instanzen gelöst hat.) Bei der Diskussion in der Kaaglegruppe wurde dies auch angesprochen und einer der Teilnehmer wollte sogar Rechenzeit bei Amazon mieten. Die Ergebnisse und ob dies stattgefunden hat sind / ist mir nicht bekannt.


    Indirekt zum Shannon-Hartley-Gesetz gibt es aber viele Überlegungen und Entwicklungen von Joe Taylor, K1JT. Die Artikel sind zum Großteil im Netz zu finden. Hier geht es um Informationskodierung, Bandbreite und Signalrauschabstaende, also weniger um mögliche theoretische Obergrenzen, als die gegebene maximale Informationsübertragung bei gegeben Verhältnissen.


    Das klingt nicht nur nach Herausforderung ... Es ist eine. sogar wenn man es nur auf die Signalverarbeitung beschränkt und andere Möglichkeiten der Unterstützung der Signalinterpretation ausser Acht läßt.


    73 de Hajo

  • Zitat

    Indirekt zum Shannon-Hartley-Gesetz gibt es aber viele Überlegungen und Entwicklungen von Joe Taylor, K1JT. Die Artikel sind zum Großteil im Netz zu finden. Hier geht es um Informationskodierung, Bandbreite und Signalrauschabstaende, also weniger um mögliche theoretische Obergrenzen, als die gegebene maximale Informationsübertragung bei gegeben Verhältnissen.


    Jo !
    Das schweift jetzt ab, aber interessant war mal ein schönes video was ich vor ein paar Wochen gesehen habe, wo winmor mit robust packet bei mehrwegausbreitung gegeneinander getestet wurden.
    Robust Packet lag hier trotz der geringeren Baudrate vorne. Weil es OFDM nutzt. (DVB-T übrigens auch.. und hier gibt es das Problem ja auch schon ewig).


    Aber interessant ist auch, das das eigentliche Modulationsverfahren ohne optimierung der Kodierung wenig bringt.
    Und ich kann kein CW.. und ich bin kein Experte ( sondern nur höchst interessiert) in dem Singnalzeugs.. aber in dieser alten Betriebsart steckt schon ne Menge "modernes zeugs" drin.
    Würden unsere Gehirne alle Synchron getaktet sein.. dann könnten wir auch hier synchron arbeiten.. aber zum glück .. pustekuchen.
    d.H. gegen QLF... bräuchte man eine sehr robuste Fehlerkorrektur...
    das könnte ein zusammenspiel sein, zwischen wahrscheinlichkeit des wortschatzes und dekodierungserfolg.
    Und training.
    So wie auch die Spracherkennung bei google funktioniert.


    Übrigens, das tolle daran, wenn man es schafft, jüngere Menschen für die Technologie zu begeistern ist, das sie dieses Wissen auch leicht in andere Bereiche transferieren können.
    Beispielsweise, könnte ich mir eine klasse vorstellen : Selbstgeschriebene Computerprogramme in Kontesten.

  • Hallo,


    zum Einsatz von Neuronalen Netzwerken bei der Signalverarbeitung incl. den Trainingsmoeglichkeiten gibt es schon viel Lieratur. Aber ich muss zugeben, dass ich mit diesem Einsatzgebiet keine Erfahrung habe. Ich kenne die Anwendungsszenarien aus der Verarbeitung von Sprache. Aber die Anwendungsmoeglichkeiteen scheinen sich wirklich hierfuer zu eignen.


    Neuronale Netze haben die Eigenschaft sich ihr Wissen selbststaendig zu erweitern (lernen). Man macht dies, indem man sehr viel Beispielmaterial zur Verfuegung stellt und die Software verarbeitet diese und modifiziert ihr Verhalten selbst. Man muss also dies nicht selbst programmieren.


    @Jan
    Dein Beispiel mit Google ... da bin ich nicht so sicher. Nachdem fueher grammatikbasierte Systeme bevorugt wurden (Systran, Metal, ...) arbeitet, man heute "brute force" wohl bevorzugt mit Patterns die aus vorhandenem Material extrahiert und statistisch verarbeitet werden. Sicher :thumbup: das ist auch Training und die Alghorithmen veraendern sich entsprechend.


    Ich schick mal meinen Hund ohne Maus vorbei: Mal sehen, ob Deine Katzenklappe geschlossen bleibt :cursing:


    73 de Hajo