Friday 3 November 2017

Cdp Handelssystem


Trading Floor Architektur Trading Floor Architektur Executive Übersicht Erhöhte Konkurrenz, ein höheres Marktdatenvolumen und neue regulatorische Anforderungen sind einige der treibenden Kräfte hinter Branchenveränderungen. Unternehmen versuchen, ihre Wettbewerbsfähigkeit durch eine ständige Änderung ihrer Handelsstrategien und die Erhöhung der Geschwindigkeit des Handels. Eine tragfähige Architektur muss die neuesten Technologien aus Netzwerk - und Anwendungsdomänen beinhalten. Es muss modular sein, um einen überschaubaren Weg zu schaffen, um jede Komponente mit minimaler Unterbrechung des Gesamtsystems zu entwickeln. Die von diesem Papier vorgeschlagene Architektur basiert daher auf einem Dienstleistungsrahmen. Wir untersuchen Dienste wie Ultra-Latenz-Messaging, Latenzüberwachung, Multicast, Computing, Speicherung, Daten - und Anwendungsvirtualisierung, Trading-Resiliency, Handelsmobilität und Thin Client. Die Lösung für die komplexen Anforderungen der Handelsplattform der nächsten Generation muss mit einer ganzheitlichen Denkweise aufgebaut werden, die die Grenzen traditioneller Silos wie Business und Technologie oder Anwendungen und Vernetzung überschreitet. Ziel dieses Dokuments ist es, Leitlinien für den Aufbau einer Handelsplattform mit extrem niedriger Latenzzeit zur Verfügung zu stellen, während der Rohdurchsatz und die Nachrichtenrate sowohl für Marktdaten als auch für FIX-Handelsaufträge optimiert werden. Um dies zu erreichen, schlagen wir die folgenden Latenzreduktionstechnologien vor: High-Speed-InterconnectInfiniBand oder 10 Gbit / s-Konnektivität für das Handels-Cluster Hochgeschwindigkeits-Messaging-Bus Anwendungsbeschleunigung über RDMA ohne Anwendung Recoder Echtzeit-Latenzüberwachung und - umkehrung von Trading Traffic auf den Pfad mit minimaler Latenz Branchentrends und Herausforderungen Trading-Architekturen der nächsten Generation müssen auf erhöhte Anforderungen an Geschwindigkeit, Volumen und Effizienz reagieren. Zum Beispiel wird das Volumen der Optionen Marktdaten voraussichtlich verdoppeln, nachdem die Einführung von Optionen Penny-Handel im Jahr 2007. Es gibt auch regulatorische Anforderungen für die beste Ausführung, die Handhabung Preisaktualisierungen mit Raten, die 1M msgsec Ansatz. Für den Austausch. Sie benötigen auch Sichtbarkeit in die Frische der Daten und Beweis, dass der Client die bestmögliche Ausführung erhalten hat. Kurzfristig sind Geschwindigkeit von Handel und Innovation die wichtigsten Unterscheidungsmerkmale. Eine zunehmende Anzahl von Trades werden durch algorithmische Handelsanwendungen behandelt, die so nah wie möglich an den Handelsausführungsort gebracht werden. Eine Herausforderung mit diesen quotblack-boxquot Handelsmotoren ist, dass sie die Volumenzunahme erhöhen, indem sie Aufträge nur annullieren und sie zurücksenden. Die Ursache für dieses Verhalten ist mangelnde Transparenz in die Veranstaltungsort bietet die beste Ausführung. Der menschliche Händler ist jetzt ein quotfinancial Ingenieur, ein quotquantquot (quantitativer Analytiker) mit Programmierungfähigkeiten, die handelnmodelle on the fly einstellen können. Unternehmen entwickeln neue Finanzinstrumente wie Wetterderivate oder Cross-Asset-Klassenhandel und müssen die neuen Applikationen schnell und skalierbar einsetzen. Langfristig sollte die Konkurrenzdifferenzierung nicht nur aus der Analyse, sondern auch aus der Analyse resultieren. Die Star-Händler von morgen übernehmen das Risiko, erreichen wahre Kundeneinblicke und konsequent den Markt (Quelle IBM: www-935.ibmservicesusimcpdfge510-6270-trader. pdf). Die Business-Resilienz ist seit dem 11. September 2001 ein wichtiges Anliegen von Handelsunternehmen. Lösungen in diesem Bereich reichen von redundanten Rechenzentren, die sich in verschiedenen Regionen befinden und an mehrere Handelsplätze angeschlossen sind, an virtuelle Händlerlösungen, die Power Traders die meisten Funktionalitäten eines Handelsraums anbieten An einem entfernten Ort. Die Finanzdienstleistungsbranche zählt zu den anspruchsvollsten IT-Anforderungen. Die Branche erlebt einen architektonischen Wandel hin zu Services-Oriented Architecture (SOA), Webdiensten und Virtualisierung von IT-Ressourcen. SOA nutzt die Erhöhung der Netzwerkgeschwindigkeit, um eine dynamische Bindung und Virtualisierung von Softwarekomponenten zu ermöglichen. Dies ermöglicht die Erstellung neuer Anwendungen, ohne die Investitionen in bestehende Systeme und Infrastrukturen zu verlieren. Das Konzept hat das Potenzial, die Integrationsfähigkeit zu revolutionieren, was die Komplexität und die Kosten einer solchen Integration erheblich reduziert (gigaspacesdownloadMerrilLynchGigaSpacesWP. pdf). Ein weiterer Trend ist die Konsolidierung von Servern in Rechenzentrums-Serverfarmen, während Händler-Desks nur KVM-Erweiterungen und ultradünne Clients (z. B. SunRay - und HP-Blade-Lösungen) haben. Hochgeschwindigkeits-Metro Area Networks ermöglichen es, Marktdaten zwischen verschiedenen Standorten zu multicastieren und so die Virtualisierung des Handelsraums zu ermöglichen. High-Level-Architektur Abbildung 1 zeigt die Architektur einer Handelsumgebung auf hohem Niveau. Die Ticker-Anlage und die algorithmischen Trading Engines befinden sich im Hochleistungs-Trading-Cluster im Rechenzentrum der Firma oder an der Börse. Die menschlichen Händler befinden sich im Bereich der Endbenutzeranwendungen. Funktionell gibt es zwei Anwendungskomponenten im Enterprise-Trading-Umfeld, Verleger und Abonnenten. Der Messaging-Bus stellt den Kommunikationsweg zwischen Publishern und Abonnenten zur Verfügung. Es gibt zwei Arten von Traffic-spezifisch für ein Handelsumfeld: Market DataCarries Preisinformationen für Finanzinstrumente, Nachrichten und andere wertschöpfende Informationen wie Analytics. Es ist unidirektional und sehr Latenz empfindlich, in der Regel über UDP Multicast geliefert. Es wird in updatessec gemessen. Und in Mbps. Marktdatenströme von einem oder mehreren externen Feeds, die von Marktdatenanbietern wie Börsen, Datenaggregatoren und ECNs kommen. Jeder Anbieter hat sein eigenes Marktdatenformat. Die Daten werden von Feed-Handlern, spezialisierten Anwendungen, die die Daten normalisieren und reinigen, empfangen und dann an Datenkonsumenten, wie z. B. Preismodule, algorithmische Handelsanwendungen oder menschliche Händler, gesendet. Sell-Side-Unternehmen senden auch die Marktdaten an ihre Kunden, Buy-Side-Firmen wie Investmentfonds, Hedgefonds und andere Vermögensverwalter. Einige Buy-Side-Unternehmen können entscheiden, Direkt-Feeds von den Austausch, Reduzierung der Latenz zu erhalten. Abbildung 1 Trading-Architektur für einen Buy SideSell Side Firm Es gibt keine Industrie-Standard für Markt-Daten-Formate. Jeder Austausch hat ihr eigenes Format. Finanzdienstleister wie Reuters und Bloomberg aggregieren verschiedene Quellen von Marktdaten, normalisieren sie und fügen Neuigkeiten oder Analysen hinzu. Beispiele für konsolidierte Feeds sind RDF (Reuters Data Feed), RWF (Reuters Wire Format) und Bloomberg Professional Services Data. Um Marktdaten mit geringerer Latenz zu liefern, haben beide Anbieter Echtzeit-Marktdaten-Feeds veröffentlicht, die weniger verarbeitet und weniger analytisch sind: Bloomberg B-PipeWith B-Pipe, Bloomberg dekoppelt ihre Marktdaten-Feeds von ihrer Vertriebsplattform aus Ist nicht erforderlich für get B-Pipe. Wombat und Reuters Feed-Handler haben angekündigt, Unterstützung für B-Pipe. Ein Unternehmen kann entscheiden, Feeds direkt von einem Austausch zu empfangen, um die Latenz zu reduzieren. Die Verstärkung der Übertragungsgeschwindigkeit kann zwischen 150 Millisekunden bis 500 Millisekunden liegen. Diese Feeds sind komplexer und teurer und die Firma muss ihre eigene Ticker-Anlage aufbauen und pflegen (financetechfeaturedshowArticle. jhtmlarticleID60404306). Trading OrdersThis Art von Traffic trägt die tatsächlichen Trades. Es ist bidirektional und sehr latenzempfindlich. Es wird in messagessec gemessen. Und Mbps. Die Aufträge stammen von einer Kaufseite oder Verkaufsseite Firma und werden an Handelsplätze wie eine Börse oder ECN zur Ausführung gesendet. Das häufigste Format für den Auftragstransport ist FIX (Financial Information eXchangefixprotocol. org). Die Applikationen, die FIX-Meldungen verarbeiten, heißen FIX-Engines und operieren mit Order Management Systemen (OMS). Eine Optimierung für FIX heißt FAST (Fix Adapted for Streaming), das ein Komprimierungsschema verwendet, um die Nachrichtenlänge zu reduzieren und die Latenz zu reduzieren. FAST ist mehr auf die Bereitstellung von Marktdaten ausgerichtet und hat das Potenzial, ein Standard zu werden. FAST kann auch als Komprimierungsschema für proprietäre Marktdatenformate verwendet werden. Um die Latenz zu reduzieren, können sich Unternehmen entscheiden, Direct Market Access (DMA) zu errichten. DMA ist das automatisierte Verfahren, um einen Wertpapierauftrag direkt an einen Ausführungsort zu leiten und so die Intervention durch einen Dritten zu vermeiden (towergroupresearchcontentglossary. jsppage1ampglossaryId383). DMA erfordert eine direkte Verbindung zum Ausführungsort. Der Messaging-Bus ist Middleware-Software von Anbietern wie Tibco, 29West, Reuters RMDS oder einer Open-Source-Plattform wie AMQP. Der Messaging-Bus verwendet einen zuverlässigen Mechanismus, um Nachrichten zu übermitteln. Der Transport kann über TCPIP (TibcoEMS, 29West, RMDS und AMQP) oder UDPmulticast (TibcoRV, 29West und RMDS) erfolgen. Ein wichtiges Konzept in der Nachrichtenverteilung ist der quottopische Stream, der eine Teilmenge von Marktdaten ist, die durch Kriterien wie Ticker-Symbol, Industrie oder einen bestimmten Korb von Finanzinstrumenten definiert sind. Abonnenten werden Themengruppen zugeordnet, die einem oder mehreren Unterthemen zugeordnet sind, um nur die relevanten Informationen zu erhalten. In der Vergangenheit erhielten alle Händler alle Marktdaten. Bei den derzeitigen Verkehrsmengen wäre dies suboptimal. Das Netzwerk spielt eine wichtige Rolle im Handelsumfeld. Die Marktdaten werden zum Handelsplatz getragen, wo sich die menschlichen Händler über ein Hochgeschwindigkeitsnetzwerk Campus oder Metro Area befinden. Hohe Verfügbarkeit und niedrige Latenzzeiten sowie hoher Durchsatz sind die wichtigsten Kennzahlen. Die leistungsstarke Handelsumgebung verfügt über die meisten Komponenten in der Data Center-Serverfarm. Um die Latenz zu minimieren, müssen sich die algorithmischen Trading-Engines in der Nähe von Feed-Handlern, FIX-Engines und Order-Management-Systemen befinden. Ein alternatives Bereitstellungsmodell weist die algorithmischen Handelssysteme auf, die sich an einer Vermittlungsstelle oder einem Dienstanbieter mit schneller Konnektivität zu mehreren Vermittlungsstellen befinden. Bereitstellungsmodelle Es gibt zwei Bereitstellungsmodelle für eine leistungsfähige Handelsplattform. Die Unternehmen haben die Wahl zwischen einem Rechenzentrum der Handelsgesellschaft (Abbildung 2) Dies ist das traditionelle Modell, in dem eine vollwertige Handelsplattform von der Firma entwickelt und betrieben wird, die über Kommunikationsverbindungen zu allen Handelsplätzen verfügt. Latenz variiert mit der Geschwindigkeit der Links und die Anzahl der Hops zwischen der Firma und den Veranstaltungsorten. Abbildung 2 Traditionelles Bereitstellungsmodell Koordination am Handelsplatz (Börsen, Finanzdienstleister (FSP)) (Abbildung 3) Das Handelsunternehmen entfaltet seine automatisierte Handelsplattform so nah wie möglich an den Ausführungsorten, um die Latenz zu minimieren. Abbildung 3 Verteilungsmodell-Services-orientierte Trading-Architektur Wir schlagen ein dienstleistungsorientiertes Framework für den Aufbau der Handelsarchitektur der nächsten Generation vor. Dieser Ansatz bietet einen konzeptionellen Rahmen und einen Implementierungspfad, der auf Modularisierung und Minimierung von Abhängigkeiten beruht. Dieses Framework stellt Unternehmen eine Methodologie zur Verfügung, um ihren gegenwärtigen Zustand in Bezug auf Dienstleistungen zu bewerten Priorisierung der Dienste basierend auf ihrem Wert für das Unternehmen Entwickeln Sie die Handelsplattform in den gewünschten Zustand mit einem modularen Ansatz Die Hochleistungs-Handelsarchitektur setzt auf die folgenden Dienstleistungen, wie Definiert durch das in Abbildung 4 dargestellte Service-Architektur-Framework. Abbildung 4 Service Architektur Framework für High Performance Trading Ultra-Low Latency Messaging Service Dieser Service wird von dem Messaging-Bus bereitgestellt, der ein Softwaresystem ist, Viele Anwendungen. Das System besteht aus: Ein Satz von vordefinierten Nachrichtenschemata Ein Satz von gemeinsamen Befehlsnachrichten Eine gemeinsame Anwendungsinfrastruktur zum Senden der Nachrichten an Empfänger. Die gemeinsame Infrastruktur kann auf einem Message-Broker oder einem publishsubscribe-Modell basieren. Die wichtigsten Anforderungen für den Messaging-Bus der nächsten Generation (Quelle 29West): Niedrigstmögliche Latenzzeit (zB weniger als 100 Mikrosekunden) Stabilität bei hoher Last (zB mehr als 1,4 Millionen msg.) Kontrolle und Flexibilität (Ratensteuerung und konfigurierbare Transporte) Sind Bemühungen in der Industrie, den Messaging-Bus zu standardisieren. Advanced Message Queuing Protocol (AMQP) ist ein Beispiel für einen offenen Standard, der von J. P. Morgan Chase unterstützt wird und von einer Gruppe von Anbietern wie Cisco, Envoy Technologies, Red Hat, TWIST Process Innovations, Iona, 29West und iMatix unterstützt wird. Zwei der Hauptziele sind, einen einfacheren Weg zur Interoperabilität für Anwendungen bereitzustellen, die auf verschiedenen Plattformen und Modularität geschrieben sind, so dass die Middleware einfach entwickelt werden kann. Ganz allgemein ist ein AMQP-Server analog zu einem E-Mail-Server, wobei jede Vermittlungsstelle als Nachrichtenübertragungsagent und jede Nachrichtenwarteschlange als Mailbox fungiert. Die Bindungen definieren die Routingtabellen in jedem Transferagent. Publisher senden Nachrichten an einzelne Übertragungsagenten, die dann die Nachrichten in Postfächer weiterleiten. Verbraucher nehmen Nachrichten aus Postfächern, die ein leistungsfähiges und flexibles Modell schafft, das einfach ist (Quelle: amqp. careikiwikitiki-index. phppageOpenApproachWhyAMQP). Latency Monitoring Service Die wichtigsten Voraussetzungen für diesen Service sind: Granularität der Messungen in Millisekunden Echtzeit-Sichtbarkeit ohne Hinzufügung von Latenzzeiten für den Traffic Traffic Fähigkeit, die Latenz der Anwendungsverarbeitung von der Netzwerk-Transit-Latenz zu unterscheiden Fähigkeit, hohe Nachrichtenraten zu behandeln Bereitstellung einer programmgesteuerten Schnittstelle für Um Latenzdaten zu empfangen, so dass sich algorithmische Trading Engines an sich ändernde Bedingungen anpassen können. Korrelieren von Netzwerkereignissen mit Anwendungsereignissen für Fehlerbehandlungszwecke Latenzzeit kann als das Zeitintervall definiert werden, zwischen dem eine Trade Order gesendet wird, und wenn dieselbe Reihenfolge quittiert und gehandelt wird Von der empfangenden Partei. Die Lösung der Latenzproblematik ist ein komplexes Problem, das einen ganzheitlichen Ansatz erfordert, der alle Latenzquellen identifiziert und verschiedene Technologien auf verschiedenen Ebenen des Systems anwendet. Fig. 5 zeigt die Vielfalt der Komponenten, die Latenzzeiten an jeder Schicht des OSI-Stapels einbringen können. Es bildet auch jede Quelle der Latenz mit einer möglichen Lösung und einer Überwachungslösung ab. Dieser mehrschichtige Ansatz bietet Unternehmen eine strukturierte Möglichkeit, das Latenzproblem anzugreifen, wobei jede Komponente als Dienstleistung betrachtet und konsequent über das Unternehmen hinweg behandelt werden kann. Eine genaue Messung des dynamischen Zustands dieses Zeitintervalls über alternative Routen und Ziele kann bei taktischen Handelsentscheidungen eine große Hilfe sein. Die Fähigkeit, die genaue Lage der Verzögerungen zu identifizieren, sei es im Kundennetznetz, auf dem zentralen Verarbeitungsknoten oder auf der Transaktionsanwendungsebene, bestimmt entscheidend die Fähigkeit von Dienstanbietern, ihre vertraglichen Vereinbarungen auf Handelsniveau (SLAs) zu erfüllen. Für Buy-Side - und Sell-Side-Formulare sowie für Marktdaten-Syndikatoren erfolgt die schnelle Identifikation und Beseitigung von Engpässen direkt in verbesserte Handels - und Ertragsmöglichkeiten. Abbildung 5 Latenzmanagement-Architektur Cisco Low-Latency-Monitoring-Tools Traditionelle Netzwerk-Monitoring-Tools arbeiten mit Minuten oder Sekunden Granularität. Handelsplattformen der nächsten Generation, insbesondere solche, die den algorithmischen Handel unterstützen, erfordern Latenzen von weniger als 5 ms und extrem niedrige Paketverluste. Auf einem Gigabit-LAN ​​kann ein 100-ms-Microburst verursachen, dass 10.000 Transaktionen verloren gehen oder übermäßig verzögert werden. Cisco bietet seinen Kunden eine Auswahl an Tools zur Messung der Latenzzeiten in einer Handelsumgebung: Bandbreiten-Qualitätsmanager (BQM) (OEM von Corvil) Cisco AON-basierte Finanzdienstleistungs-Latenzüberwachungslösung (FSMS) Bandbreiten-Qualitätsmanager Bandwidth Quality Manager (BQM) 4.0 ist Ein Netzwerk-Performance-Management-Produkt der nächsten Generation, das es Kunden ermöglicht, ihr Netzwerk auf kontrollierte Latenz - und Verlustleistung zu überwachen und bereitzustellen. Während BQM nicht ausschließlich auf Handelsnetze ausgerichtet ist, ist die Mikrosekundenvisibilität in Kombination mit intelligenten Funktionen zur Bandbreitenoptimierung ideal für diese anspruchsvollen Umgebungen. Cisco BQM 4.0 implementiert eine breite Palette von patentierten und zum Patent angemeldeten Verkehrs - und Netzwerkanalysetechnologien, die dem Anwender eine noch nie dagewesene Sichtbarkeit und ein Verständnis der Optimierung des Netzwerks für maximale Anwendungsleistung bieten. Cisco BQM wird nun auf der Produktfamilie der Cisco Application Deployment Engine (ADE) unterstützt. Die Cisco ADE-Produktfamilie ist die Plattform für Cisco Network Management-Anwendungen. BQM-Vorteile Die Cisco BQM-Mikrosichtbarkeit ist die Fähigkeit, Latenz, Jitter und Verluste, die Verkehrsereignisse verursachen, zu detektieren, zu messen und zu analysieren, bis hin zu Mikrosekunden-Ebenen der Granularität pro Paketauflösung. Dadurch kann Cisco BQM die Auswirkungen von Verkehrsereignissen auf Netzwerklatenz, Jitter und Verlust erkennen und bestimmen. Kritisch für Handelsumgebungen ist, dass BQM Latenz-, Verlust - und Jitter-Messungen einseitig für TCP - und UDP - (Multicast-) Datenverkehr unterstützen kann. Das bedeutet, dass sie nahtlos sowohl für Trading - als auch für Marktdaten-Feeds berichtet. BQM erlaubt es dem Benutzer, einen umfassenden Satz von Schwellenwerten (gegen Microburst-Aktivität, Latenz, Verlust, Jitter, Auslastung usw.) auf allen Schnittstellen festzulegen. BQM betreibt dann eine Hintergrundwalzenpaketaufnahme. Wenn eine Schwellenverletzung oder ein anderes potentielles Leistungsverschlechterungsereignis auftritt, löst sie Cisco BQM aus, um die Paketaufnahme zur späteren Analyse auf dem Datenträger zu speichern. Dies ermöglicht dem Benutzer, den Anwendungsverkehr, der von der Leistungsverschlechterung betroffen war, zu untersuchen (quiethe victimsquot) und den Verkehr, der die Leistungsverschlechterung verursacht hat (quich der culpritsquot). Dies kann die Zeit für die Diagnose und Behebung von Netzwerkleistungsproblemen erheblich verkürzen. BQM ist auch in der Lage, detaillierte Empfehlungen für die Bereitstellung von Empfehlungen für die Bandbreite und Qualität des Dienstes (QoS) bereitzustellen, die der Benutzer direkt anwenden kann, um die gewünschte Netzwerkleistung zu erreichen. BQM-Messungen veranschaulicht Um den Unterschied zwischen einigen der herkömmlicheren Messtechniken und der Sichtbarkeit von BQM zu verstehen, können wir einige Vergleichsgrafiken betrachten. Im ersten Satz von Graphen (Abbildung 6 und Abbildung 7) sehen wir die Differenz zwischen der Latenzzeit, die mit dem BQMs passivem Netzwerkqualitätsmonitor (PNQM) gemessen wird, und der Latenz, die durch die Injektion von Ping-Paketen alle 1 Sekunde in den Verkehrsstrom gemessen wird. In Abbildung 6 sehen wir die Latenz, die von 1-Sekunden-ICMP-Ping-Paketen für den realen Netzverkehr gemeldet wird (es wird durch 2 geteilt, um eine Schätzung für die Einwegverzögerung zu geben). Es zeigt die Verzögerung bequem unter etwa 5ms für fast die ganze Zeit. Abbildung 6 Latenz, die von 1-Sekunden-ICMP-Ping-Paketen für den realen Netzwerkverkehr berichtet wird In Abbildung 7. sehen wir die Latenz, die PNQM für denselben Traffic zur gleichen Zeit gemeldet hat. Hier sehen wir, dass wir durch die Messung der Einweg-Latenz der eigentlichen Anwendungspakete ein völlig anderes Bild erhalten. Hier wird die Latenz etwa 20 ms schweben, mit gelegentlichen Bursts weit höher. Die Erklärung ist, dass, weil ping sendet Pakete nur jede Sekunde, es ist völlig fehlt die meisten der Anwendungsverkehr Latenz. Tatsächlich zeigen die Ping-Ergebnisse typischerweise nur die Ausbreitungsverzögerung für die Rundreise anstelle der realistischen Anwendungslatenz im gesamten Netzwerk an. Abbildung 7 Latenz, die von PNQM für realen Netzwerkverkehr gemeldet wird Im zweiten Beispiel (Abbildung 8) sehen wir den Unterschied zwischen den angegebenen Linkbelastungs - oder Sättigungswerten zwischen einer 5-minütigen mittleren Ansicht und einer 5-ms-Microburst-Ansicht (BQM kann über Microbursts berichten Bis ungefähr 10-100 Nanosekunden Genauigkeit). Die grüne Linie zeigt, dass die durchschnittliche Auslastung bei 5-Minuten-Mitteln niedrig ist, möglicherweise bis zu 5 Mbitss. Das Dunkelblau-Diagramm zeigt die 5 ms Mikroburst-Aktivität, die zwischen 75 Mbitss und 100 Mbitss, die LAN-Geschwindigkeit, effektiv erreicht. BQM zeigt dieses Granularitätsniveau für alle Anwendungen und es gibt auch klare Bereitstellungsregeln, die es dem Benutzer ermöglichen, diese Mikrobursts zu steuern oder zu neutralisieren. Abbildung 8: Unterschied zwischen einer 5-Minuten-Durchschnittsanzeige und einer 5-ms-Microburst-Ansicht BQM-Bereitstellung im Trading-Netzwerk Abbildung 9 zeigt eine typische BQM-Implementierung in einem Handelsnetzwerk. Abbildung 9 Typische BQM-Implementierung in einem Trading-Netzwerk BQM kann dann verwendet werden, um diese Arten von Fragen zu beantworten: Sind alle meine Gigabit-LAN-Kernverbindungen für mehr als X Millisekunden gesättigt Ist dies verursacht Verlust Welche Verbindungen würden am meisten von einem Upgrade auf Etherchannel oder profitieren 10 Gigabit-Geschwindigkeiten Was Anwendungsdatenverkehr verursacht die Sättigung meiner 1 Gigabit-Links Ist eines der Marktdaten erleben End-to-End-Verlust Wie viel zusätzliche Latenz der Failover-Rechenzentrum Erfahrung Ist dieser Link richtig dimensioniert, um mit microbursts befassen sind meine Händler Erhalten niedrige Latenz Updates aus der Marktdatenverteilungsschicht Sind sie sehen alle Verzögerungen größer als X Millisekunden In der Lage, diese Fragen einfach und effektiv zu sparen spart Zeit und Geld in den Betrieb des Handelsnetzes. BQM ist ein wichtiges Instrument, um die Sichtbarkeit in Marktdaten und Handelsumgebungen zu erhöhen. Es bietet körnige End-to-End-Latenz-Messungen in komplexen Infrastrukturen, die umfangreiche Datenbewegungen erleben. Das effektive Erfassen von Microbursts in Sub-Millisekunden-Ebenen und das Empfangen von Expertenanalysen für ein bestimmtes Ereignis ist von unschätzbarem Wert für den Handel von Architekten. Empfehlungen zur Bereitstellung von intelligenter Bandbreite, wie Sizing und What-If-Analyse, sorgen für mehr Agilität, um auf volatile Marktbedingungen zu reagieren. Da die Explosion des algorithmischen Handels und die zunehmende Nachrichtenrate weiter anhält, bietet BQM in Verbindung mit dem QoS-Tool die Möglichkeit, QoS-Richtlinien zu implementieren, die kritische Handelsanwendungen schützen können. Cisco Financial Services Latency Monitoring-Lösung Cisco und Trading Metrics haben an Latenzüberwachungslösungen für den FIX-Auftragsfluss und die Marktdatenüberwachung zusammengearbeitet. Die Cisco AON-Technologie ist das Fundament für eine neue Klasse von Netzwerk-Embedded-Produkten und - Lösungen, die dazu beitragen, intelligente Netzwerke mit einer Anwendungsinfrastruktur zusammenzuführen, die auf serviceorientierten oder traditionellen Architekturen basiert. Trading Metrics ist ein führender Anbieter von Analytics-Software für Netzwerk-Infrastruktur und Anwendung Latenzüberwachung Zwecke (Tradingmetrics). Die Cisco AON Financial Services Latency Monitoring Solution (FSMS) korrelierte zwei Arten von Ereignissen an der Beobachtungsstelle: Netzwerkereignisse korrelierten direkt mit übereinstimmender Anwendung Nachrichtenhandling Handelsauftragsabwicklung und passende Marktaktualisierungsereignisse Mit Hilfe von Zeitstempeln, die zum Zeitpunkt der Erfassung in der Netzwerk ermöglicht die Echtzeit-Analyse dieser korrelierten Datenströme eine genaue Erkennung von Engpässen in der Infrastruktur, während ein Handel ausgeführt wird oder Marktdaten verteilt werden. Durch die Überwachung und Messung der Latenzzeiten im Zyklus können Finanzunternehmen bessere Entscheidungen darüber treffen, welchen Netzdienst und welcher Vermittler, Markt oder Gegenpartei für die Weiterleitung von Handelsaufträgen ausgewählt wird. Ebenso ermöglicht dieses Wissen einen rationelleren Zugang zu aktualisierten Marktdaten (Börsenkurse, Wirtschaftsnachrichten usw.), die eine wichtige Grundlage für die Initiierung, den Rückzug oder die Verfolgung von Marktchancen darstellen. Die Komponenten der Lösung sind: AON-Hardware in drei Formfaktoren: AON-Netzwerkmodul für Cisco 2600280037003800-Router AON-Blade für die Cisco Catalyst 6500-Serie AON 8340 Appliance-Handelsmetriken Die MampA 2.0-Software, die die Überwachungs - und Alarmierungsanwendung zur Verfügung stellt, zeigt Latenzdiagramme an Ein Armaturenbrett und gibt Warnungen aus, wenn Verlangsamungen auftreten (tradingmetricsTMbrochure. pdf). Abbildung 10 AON-basierte FIX-Latenzüberwachung Cisco IP SLA ist ein integriertes Netzwerkmanagement-Tool in Cisco IOS, das es Routern und Switches ermöglicht, synthetische Verkehrsströme zu generieren, die auf Latenz, Jitter, Paketverlust und andere Kriterien (ciscogoipsla) gemessen werden können ). Zwei Schlüsselkonzepte sind die Quelle des erzeugten Verkehrs und des Ziels. Beide führen einen IP-SLA-Quotienten durch, der die Aufgabe hat, den Steuerverkehr zeitlich abzustimmen, bevor er von dem Ziel gesendet und zurückgesendet wird (für eine Rundreisemessung). Verschiedene Verkehrstypen können innerhalb von IP SLA bereitgestellt werden, und sie sind auf verschiedene Metriken ausgerichtet und zielen auf verschiedene Dienste und Anwendungen ab. Der UDP-Jitter-Vorgang wird verwendet, um Einweg - und Umlaufverzögerungen und Berichtsvariationen zu messen. Da der Verkehr sowohl auf dem sendenden als auch auf dem Zielgerät unter Verwendung der Responder-Fähigkeit zeitgestempelt wird, ist die Umlaufverzögerung als das Delta zwischen den beiden Zeitstempeln charakterisiert. In IOS 12.3 (14) T, IP SLA Sub Millisecond Reporting wurde ein neues Feature eingeführt, das es ermöglicht, Zeitstempel mit einer Auflösung in Mikrosekunden anzuzeigen und so eine noch nicht vorhandene Granularität zu liefern. Dieses neue Feature hat jetzt IP-SLA für Campus-Netzwerke, wo Netzwerk-Latenz ist in der Regel im Bereich von 300-800 Mikrosekunden und die Fähigkeit zur Erkennung von Trends und Spikes (kurze Trends) auf Mikrosekunden Granularität Zähler ist eine Voraussetzung für Kunden in der Zeit engagiert - sensitive elektronische Handelsumgebungen. Infolgedessen wird IP SLA jetzt durch eine beträchtliche Anzahl von Finanzorganisationen betrachtet, da sie alle mit Anforderungen konfrontiert sind, um: Berichten Sie Grundlinienlatenz für ihre Benutzer Trend Baseline-Latenz über Zeit Reagieren Sie schnell auf Traffic-Bursts, die Änderungen in der gemeldeten Latenz verursachen Sub - Millisekunden-Berichterstattung ist für diese Kunden notwendig, da viele Campus und Backbones derzeit unter einer Sekunde der Latenz über mehrere Switch Hops liefern. Elektronische Handelsumgebungen haben im Allgemeinen gearbeitet, um alle Bereiche der Geräte - und Netzwerklatenz zu eliminieren oder zu minimieren, um eine schnelle Auftragsabwicklung für das Unternehmen zu liefern. Die Berichterstattung, dass Netzwerkantwortzeiten unter einer Millisekunde gleich sind, reicht nicht mehr aus, dass die Granularität von Latenzmessungen, die über ein Netzwerksegment oder Backbone berichtet werden, näher an 300-800 Mikrosekunden mit einem Auflösungseffekt von 100 igrave Sekunden liegen muss. IP SLA vor kurzem hinzugefügt Unterstützung für IP-Multicast-Test-Streams, die Marktdaten Latenz messen können. Eine typische Netzwerktopologie ist in Abbildung 11 mit den IP-SLA-Schattenfräsern, Quellen und Respondern dargestellt. Abbildung 11 IP-SLA-Bereitstellung Computing Services Computing-Services decken eine breite Palette von Technologien mit dem Ziel der Beseitigung von Speicher-und CPU-Engpässe durch die Verarbeitung von Netzwerk-Pakete erstellt. Handelsanwendungen verbrauchen ein hohes Volumen an Marktdaten und die Server müssen Ressourcen für die Verarbeitung von Netzwerkverkehr statt für die Verarbeitung von Anwendungen reservieren. Transport processingAt hohe Geschwindigkeiten, Netzwerk-Paket-Verarbeitung kann eine beträchtliche Menge an Server-CPU-Zyklen und Speicher verbrauchen. Eine etablierte Faustregel besagt, dass 1 Gbit / s Netzwerkbandbreite 1 GHz Prozessorkapazität benötigt (Quelle Intel White Paper zur IO-Beschleunigung inteltechnologyioacceleration306517.pdf). Zwischenpufferkopieren In einer herkömmlichen Netzwerkstapelimplementierung müssen Daten von der CPU zwischen Netzwerkpuffern und Anwendungspuffern kopiert werden. Dieser Overhead wird durch die Tatsache verschlechtert, dass Speicher-Geschwindigkeiten nicht mit Zunahmen der CPU-Geschwindigkeiten aufrechterhalten haben. Zum Beispiel, Prozessoren wie der Intel Xeon nähert sich 4 GHz, während RAM-Chips schweben rund 400 MHz (für DDR 3200 Speicher) (Quelle Intel Intel Technologie-Beschleunigung306517.pdf). Context-SwitchingJede Zeit, die ein einzelnes Paket verarbeitet werden muss, führt die CPU eine Kontextumschaltung vom Anwendungskontext zum Netzwerkverkehrskontext durch. Dieser Overhead könnte reduziert werden, wenn der Schalter nur dann auftreten würde, wenn der gesamte Anwendungspuffer vollständig ist. Abbildung 12 Quellen für Overhead in Rechenzentrumsservern TCP Offload Engine (TOE) Entlastet Transportprozessor-Zyklen zur NIC. Verschiebt TCPIP-Protokoll-Stack-Pufferkopien vom Systemspeicher in den NIC-Speicher. Remote Direct Memory Access (RDMA) Ermöglicht einem Netzwerkadapter, Daten direkt von Anwendung zu Anwendung ohne Übertragung des Betriebssystems zu übertragen. Eliminiert Zwischen - und Anwendungspufferkopien (Speicherbandbreitenverbrauch). Kernel-Bypass Direkter Zugriff auf die Hardware. Dramatisch reduziert Anwendungskontext-Schalter. Abbildung 13 RDMA und Kernel Bypass InfiniBand ist eine bidirektionale serielle Kommunikationsschnittstelle für Punkt-zu-Punkt-Kommunikation (Switched Stoff), die unter anderem RDMA implementiert. Cisco bietet einen InfiniBand-Switch, den Server Fabric Switch (SFS): ciscoapplicationpdfenusguestnetsolns500c643cdccont0900aecd804c35cb. pdf an. Abbildung 14 Typische SFS Deployment Trading-Anwendungen profitieren von der Reduzierung der Latenz - und Latenzvariabilität, wie aus einem Test hervorgeht, der mit den Cisco SFS - und Wombat-Feed-Handlern von Stac Research durchgeführt wurde: Application Virtualization Service Entkopplung der Anwendung von der zugrunde liegenden Betriebssystem - und Serverhardware Können sie als Netzwerkdienste ausgeführt werden. Eine Anwendung kann auf mehreren Servern parallel ausgeführt werden, oder mehrere Anwendungen können auf demselben Server ausgeführt werden, wie die beste Ressourcenzuweisung vorschreibt. Diese Entkopplung ermöglicht eine bessere Lastverteilung und Disaster Recovery für Business Continuance Strategien. Der Prozess der Neuzuordnung von Rechenressourcen zu einer Anwendung ist dynamisch. Mithilfe eines Anwendungsvirtualisierungssystems wie Data Synapses GridServer können Anwendungen mithilfe vorkonfigurierter Richtlinien zu unterversorgten Servern in einem Supply-Matchs-Demand-Prozess migrieren (networkworldsupp2005ndc1022105virtual. htmlpage2). Es gibt viele Geschäftsvorteile für Finanzunternehmen, die Anwendungsvirtualisierung verabschieden: Schnellere Time-to-Market für neue Produkte und Dienstleistungen Schneller Integration von Unternehmen nach Fusions - und Akquisitionstätigkeit Erhöhte Anwendungsverfügbarkeit Bessere Workload-Verteilung, die mehr quothead roomquot für die Verarbeitung von Spikes im Handelsvolumen schafft Operational Effizienz und Kontrolle Reduzierung der IT-Komplexität Derzeit wird die Anwendungsvirtualisierung im Trading-Front-Office nicht genutzt. Ein Anwendungsfall ist die Risikomodellierung, wie Monte-Carlo-Simulationen. Wie die Technologie entwickelt, ist es denkbar, dass einige der Handelsplattformen sie übernehmen werden. Data Virtualization Service Um Ressourcen effektiv über verteilte Unternehmensanwendungen zu verteilen, müssen Unternehmen in der Lage sein, Daten über mehrere Quellen hinweg in Echtzeit zu nutzen und gleichzeitig die Datenintegrität sicherzustellen. Mit Lösungen von Datenvirtualisierungssoftwareherstellern wie Edelstein oder Tangosol (jetzt Oracle) können Finanzunternehmen heterogene Datenquellen als ein einziges Systemabbild nutzen, das die Verbindung zwischen Geschäftsprozessen und dem uneingeschränkten Anwendungszugriff auf verteiltes Caching ermöglicht. Das Ergebnis ist, dass alle Benutzer über ein verteiltes Netzwerk sofortigen Zugriff auf diese Datenressourcen haben (gridtoday030210101061.html). Dies nennt man ein Datenraster und ist der erste Schritt bei der Erstellung, was Gartner Extreme Transaction Processing (XTP) nennt (gartnerDisplayDocumentrefgsearchampid500947). Technologien wie Daten - und Anwendungsvirtualisierung ermöglichen es Finanzunternehmen, komplexe Analysen in Echtzeit, ereignisgesteuerte Anwendungen und dynamische Ressourcenverteilung durchzuführen. One example of data virtualization in action is a global order book application. An order book is the repository of active orders that is published by the exchange or other market makers. A global order book aggregates orders from around the world from markets that operate independently. The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state. Todays data grids are localized in data centers connected by Metro Area Networks (MAN). This is mainly because the applications themselves have limitsthey have been developed without the WAN in mind. Figure 15 GemStone GemFire Distributed Caching Before data virtualization, applications used database clustering for failover and scalability. This solution is limited by the performance of the underlying database. Failover is slower because the data is committed to disc. With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time. Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster. Multicast Service Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users. Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability. Using TCP requires a separate socket and sliding window on the server for each recipient. UDP broadcast requires a separate copy of the stream for each destination subnet. Both of these methods exhaust the resources of the servers and the network. The server side must transmit and service each of the streams individually, which requires larger and larger server farms. On the network side, the required bandwidth for the application increases in a linear fashion. For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth. IP multicast is the only way to scale market data delivery. To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps. The stream can be delivered by as few as two serversone primary and one backup for redundancy. There are two main phases of market data delivery to the end user. In the first phase, the data stream must be brought from the exchange into the brokerages network. Typically the feeds are terminated in a data center on the customer premise. The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center. The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications. The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc. Many of these applications listen to the feeds and then republish their own analytical and derivative information. For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization. Figure 16 Market Data Distribution Players The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous. Tibco RV operates in a publish and subscribe environment. Each financial instrument is given a subject name, such as CSCO. last. Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information. This is called subject-based forwarding or filtering. Subject-based filtering is patented by Tibco. A distinction should be made between the first and second phases of market data delivery. The delivery of market data from the exchange to the brokerage is mostly a one-to-many application. The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast. The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders. Figure 17 Market Data Architecture Design Issues Number of GroupsChannels to Use Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets. Normally these applications send many small messages as part of their information bus. Usually several messages are sent in each packet that are received by many users. Sending fewer messages in each packet increases the overhead necessary for each message. In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returnsthere is more overhead sent than actual data. Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets. Consider, for example, the Nasdaq Quotation Dissemination Service (NQDS). The instruments are broken up alphabetically: This approach allows for straight forward networkapplication management, but does not necessarily allow for optimized bandwidth utilization for most users. A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS. Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user. In many market data applications, optimizing the data organization would be of limited value. Typically customers bring in all data into a few machines and filter the instruments. Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth. Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary. The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data. In some situations this may be sufficient. Intermittent Sources A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3.5 minutes. These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created. PIM-Bidir or PIM-SSM The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications. Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state. That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path. Intermittent sources are not an issue with PIM-Bidir and PIM-SSM. Null Packets In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream. The application must efficiently ignore these null data packets to ensure it does not affect performance. The sources must only send the burst of packets if they have been silent for more than 3 minutes. A good practice is to send the burst if the source is silent for more than a minute. Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems. Periodic Keepalives or Heartbeats An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups. This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires. S, G Expiry Timer Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS. There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent. The (S, G) expiry timer is configurable. This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed. RTCP Feedback A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic. Unnecessary use of the feedback option can create excessive multicast state in the network. If the RTCP traffic is not required by the application it should be avoided. Fast Producers and Slow Consumers Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps. This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle. The solution needs to be some type of access control in the application that limits the amount of data that one host can request. QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application. Tibco Heartbeats TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years. However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency. This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers. These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions. Multicast Forwarding Options PIM Sparse Mode The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode. It is supported on all Cisco routers and switches and is well understood. PIM-SM can be used in all the network components from the exchange, FSP, and brokerage. There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM. These are covered in the next sections. The main components of the PIM-SM implementation are: PIM Sparse Mode v2 Shared Tree (spt-threshold infinity) A design option in the brokerage or in the exchange. Posted on singaporetradingonline. What is the CDP The Central Depository (Pte) Limited (CDP) is a subsidiary of the Singapore Exchange Limited (SGX). CDP provides depository, clearing, settlement and computerised book-entry services for securities traded on the Singapore Exchange Securities Trading Limited (SGX-ST). The CDP provides depository, clearing and book-entry settlement services for the Singapore stock market. As a depository, CDP provides central nominee services. It is the central party which holds the shares on behalf of investors in CDP securities accounts. As a clearing house, CDP also clears and settles all transactions in the stock market through its book-entry settlement system. Clearing takes place instantaneously once your trade is executed and we become the central counterparty, so it guarantees the trade for both the buyer and seller. Once CDP receives the details of the matched orders, it settles all trade positions by moving payments and shares to the rightful parties. After which, its book-entry settlement system will reflect all changes in share ownership in the CDP securities accounts concerned. Q: What other services does CDP offer A: The CDP also offers a suite of depository services from account maintenance and custodial services, processing and distribution of entitlements to new issue distribution. Approach friendly CDP Customer Service Officers at their counters if you have any questions concerning your shares, entitlements and other CDP services. Theyre there to help you to: Open or close your CDP direct securities account Deposit andor withdraw scrips, which are the physical certificates reflecting ownership of your shares Transfer your shares Update your personal particulars amp change in your signature Check your latest or backdated shareholding balances Exercise your rights entitlements Process your application for CDP services like Direct Crediting Service (DCS), CDP Internet Access and CDP Phone CDP Customer Service Counters are located at 11 North Buona Vista Drive 06-07 The Metropolis Tower 2 Singapore 138589 CDPs counter services are mostly free of charge. However, there are certain administrative costs that are payable for services like deposits, withdrawals and transfers. New issue distributions (IPOs) are credited into the accounts of successful applicants by the CDP. Corporate actions will be the companys distribution of entitlements, if any, to you. Dividends, rights and bonus issues fall under such corporate actions.

No comments:

Post a Comment