[POST MORTEM] WOL.NET

Während ein Großteil unserer Entwicklungsprojekte auf den Bühnen unserer Kunden stattfinden, gab es in der Vergangenheit auch die eine oder andere Software, die wir in Eigenregie entwickelt und zeitweise auch vertrieben haben. Das wohl bekannteste Produkt ist dabei das später in RPM umgetaufte WOL.NET. Dieser Artikel schaut ein wenig hinter die Kulissen: Was lief gut, was lief nicht so gut, über was für Kuriositäten sind wir bei der Entwicklung gestolpert. Ein klassisches Post Mortem also.

Viel Spaß beim Lesen!

Softwareverteilung als Auslöser für eine Eigenentwicklung

Bereits vor über zwölf Jahren hatten einige unserer Kunden das Bedürfnis, ihre Softwareverteilung möglichst zentral zu verwalten. Auf dem Markt existierten (und existieren noch immer) die unterschiedlichsten Produkte verschiedenster Hersteller, die das ermöglichen. Um ein prominentes Beispiel zu nennen: Microsoft bot damals bereits mit dem Systems Management Server (SMS) in der Version 2003 ein solches Produkt an. Inventarisierung von Soft- und Hardware war damit möglich, ebenso aber auch das Verteilen von Software; zentral gesteuert. Später wurde daraus übrigens SCCM (Systems Center Configuration Manager) in der Version 2007.

Was allerdings ab Start fehlte, war die Möglichkeit, Rechner gezielt für eine Software-Verteilung remote einzuschalten oder im Anschluss auch wieder herunterzufahren. Kurzum: Bis ein Programmpaket auf teilweise hunderte Systeme verteilt war,… das konnte dauern. Tage. Wenn nicht gar Wochen. Es kam halt darauf an, wann jemand seinen PC anschaltete.

Auf Basis einer Kundenidee zu diesem Problem entstand dann 2004 die Software WOL.NET. WOL  stand dabei für Wake on LAN und beschrieb somit die Technologie, die für das ferngesteuerte Aufwecken der Clients zum Einsatz kommen sollte. .NET wiederum trug damals nahezu jedes Programm im Namen, was auf die .NET Plattform von Microsoft setzte. 

Als Web-Anwendung konzipiert, war es die Aufgabe von WOL.NET, ausschließlich lesend auf die Datenbasis vom SMS 2003 Server zuzugreifen und die Hierarchie der darin registrierten Clients darzustellen. Administratoren konnten sodann einzelne Clients, sowie ganze Sammlungen selektieren und dann einen Job erstellen, der die Clients sowohl aufwecken wie auch herunterfahren konnte. Letzteres erledige ein entsprechender Aufruf der shutdown.exe. Das Gute an diesem Konzept: Wir waren unabhängig vom eigentlichen SMS Workflow und der tatsächlichen Softwareverteilung. Sprich: Rauf- und Runterfahren gingen auch komplett autark und konnten somit auch für alle andere Zwecke genutzt werden, für die ein Rechner so eingeschaltet sein sollte (Virenscans, etc.).

Die ersten Probleme

Direkt ab Start trafen uns dann allerdings zwei Probleme:

  1. In 2004 waren wir noch nicht bereit, Lizenzen von Drittherstellern wie bspw. Infragistics, Telerik, Component One und wie sie alle heißen auszugeben. Warum das eine schlechte Entscheidung war, kann man hier nachlesen.
  2. Magic Packets wie sie für Wake on LAN benötigt werden, müssen gebroadcastet werden.

Was bedeutete das für uns?

Nun, während unsere Testumgebung aus einer handvoll PCs bestand, verfügte unser erster ernstzunehmender Kunde für das Produkt über ca. 2.000 Systeme. In SMS waren sie auf eine Art strukturiert, so dass sie durch die Kategorisierung (Windows Clients, Windows XP Clients, Clients für die Verteilung von Adobe Photoshop,…) teils mehrfach in der Hierarchie auftraten. Daraus ergab sich für WOL.NET also ein Baum mit tausenden von Knoten. Im Web. Und wir wussten noch nicht, wie Load on Demand funktioniert. Es gab nicht einmal ein TreeView Control unter ASP.NET, geschweige denn einen Drittanbieter für so etwas (zumindest keinen mit einer kostenfreien Lösung).

Was es indes gab, war ein ASP.NET TreeView Control bei Microsoft Research (2006 wurde es übrigens regulär als CSS Control Adapter Toolkit veröffentlicht). Das befand sich in einer Art Beta-Stadium und beherrschte etwas Großartiges: Es war CSS Friendly. Das bedeutet, es war möglich, ASP.NET dazu zu bringen, das Control auf eine beliebige Art so zu rendern, dass etwas dabei herauskommt, was sich einfach mittels CSS optisch gestalten lässt. In diesem Fall: Eine Unordered List aus der geschickte CSS-Definitionen optisch einen hierarchischen Baum zauberten. Und nicht nur das: Es wurde direkt JavaScript-Code mitgeliefert, der den Baum interaktiv werden ließ: Einklappen, Aufklappen, einzelne Zweige selektieren und – und das war das besondere Highlight – während es zwar keine TriState Checkboxen gab, konnte der Code immerhin rückwärts die übergeordnete CheckBox deselektieren, sobald in der Hierarchie darunter auch nur ein Häkchen entfernt wurde. Sehr cool.

Das einzige Problem: Beim Aufruf der Webanwendung wurden alle Daten des Baumes in einem Rutsch komplett an den Browser übertragen. In unserem Testlab war das aufgrund der geringen Menge an Clients kein Problem. Beim Kunden knallte es. Natürlich. Unsere Lösung war zweigleisig: Zum einen erhöhten wir den TimeOut auf 2 Stunden. Im Nachhinein betrachtet klingt das aberwitzig, aber der Kunde ließ sich darauf ein. Da wurde dann eben WOL.NET geöffnet, in die Mittagspause gegangen und danach der Job konfiguriert. Das gehörte zur täglichen Routine. Zum anderen ergänzten wir die Möglichkeit, mittels konfigurierbarer Optionen einen beliebigen Knoten in der SMS Hierarchie als Stammknoten für WOL.NET zu definieren. Im Kern ging es hier nun einmal um Softwareverteilung und dafür wurden vom Kunden jedes Mal sog. Collections in SMS angelegt. Sobald diese in WOL.NET als Stammknoten eingestellt waren, wurden auch nur diese – und natürlich die Clients darunter – auf der Hauptseite angezeigt und alles war gut.

Darüber hinaus arbeiteten wir an einer ganzheitlichen Lösung des Problems. Und die kam später in Form einer Infragistics-Lizenz (sic!). Von Infragistics wurde uns ein TreeView Control geboten, das alle Funktionen enthielt, die wir brauchten. Inklusive Load on Demand. Das kam einer Erleuchtung gleich! Lediglich die Anpassungen an unseren Stored-Procedures war nicht so einfach wie gedacht, da diese nun nicht mehr direkt hierarchische Daten in einer zweidimensionalen Tabelle liefern mussten, sondern komplett umgeschrieben, um Knoten nach Bedarf zu laden, sowie Informationen darüber, wie viele Knoten sich jeweils darunter befinden zu liefern.

Das Problem mit den Magic Packets war da schon komplexer. Vereinfacht gesagt ist die Sache die: Ein Magic Packet ist ein ursprünglich von AMD definiertes Netzwerkpaket, dessen Aufbau festgelegt ist und i.d.R. die MAC Adresse des aufzuweckenden Clients beinhaltet nebst einem Identifier, der es als Magic Paket erkennbar macht. Warum nun also eine MAC Adresse? Ganz einfach: Solange ein Client offline ist, verfügt er schlicht über keine IP Adresse. Was er aber haben kann, ist eine Netzwerkkarte, die rudimentär mit Strom versorgt wird und am Kabel lauscht. Dazu müssen Netzwerkkarte und Mainboard Wake on LAN unterstützen und zusätzlich entsprechende Einstellungen im BIOS und dem Betriebssystem gemacht werden. Das einmal vorausgesetzt kann also ein Magic Packet auf die Reise geschickt werden und sobald die mit der entsprechenden MAC Adresse versehene Netzwerkkarte dieses Paket vorbeiflitzen sieht, fährt es den Rechner, in dem sie steckt, einfach hoch. Da das aber nicht zielgerichtet sein kann – es gibt ja keine IP-Adresse – muss das Paket in das gesamte Netzwerk gebroadcastet werden. Und das stellte sich als Problem heraus, sofern Subnetze zum Einsatz kamen. Das war nahezu immer der Fall. er sich hier für Details interessiert, der liest am besten Mal Artikel über Networking Layer und das ISO OSI Modell.

Gelöst werden kann das Problem entweder, in dem die Router zwischen Subnetzen für sog. Directed Broadcasting konfiguriert werden, oder indem man in jedem Subnetz einen eigenständigen Service installiert, der nur für sein eigenen Netz verantwortlich ist. Wir unterstützen seit jeher beides und waren damit der Konkurrenz und auch Microsoft selbst voraus. Unser WOL.NET ließ dabei auch einen hybriden Modus zu, in dem einzelne Dienste für mehrere Subnetze verantwortlich waren und diese per Directed Broadcast erreichen konnten, sowie Dienste, die nur für jeweils ein Subnetz verantwortlich waren. Dieses Szenario ergab immer dann Sinn, wenn ein Unternehmen bspw. über mehrere Standorte verfügte und an einigen Directed Broadcast erlaubt war, an anderen aber nicht. Wenn es nach uns gegangen wäre, hätten wir immer empfohlen, Directed Broadcast zu erlauben. Allerdings hat es vor einigen Jahren Angriffe auf Unternehmen gegeben, die über diese Technologie ermöglicht wurden (Stichwort: Smurf Attack). Obwohl man bereits damals die Quelle für solche Broadcasts und auch die erlaubten Ports konfigurieren konnte, hielt das viele Systemadministratoren nicht davon ab, aus Sicherheitsgründen weiterhin auf Directed Broadcasts zu verzichten. Immerhin hatten wir selbst in dem Fall eine Lösung parat.

Installation

Während unsere ersten Kunden für WOL.NET sich schon fast durch langjährige, beinahe freundschaftliche Beziehungen charakterisieren ließen, kamen bald schon Interessenten hinzu, die uns in dem Kontext ausschließlich als Hersteller einer Software wahrnahmen. Als Beratungsunternehmen waren wir es gewohnt, unser KnowHow an den Kunden weiterzugeben, was im Fall von WOL.NET auch bedeuten konnte, dass der Windows NT Service und die ASP.NET Webanwendung nebst SQL-Datenbank manuell angelegt und eingerichtet wurden. Die Schritte wurden wie in regulären Projekten auch protokolliert, dokumentiert und an den Kunden übergeben. Das Resultat: Maximale Flexibilität und auch Unabhängigkeit. Kunden aber, die annahmen, wir wären ein Softwarehersteller, erwarteten eine Boxed-Lösung inkl. MSI-Setup.EnergyMonitor

Zu dem Zeitpunkt war die Featureliste von WOL.NET bereits spürbar angewachsen. Es gab neben dem Hauptprodukt auch eine Integrationskomponente für SMS 2003 und später auch SCCM 2007, sowie einen Energymonitor, der visuell aufzubereiten versuchte, wie es um den Energieverbrauch der Systeme steht und wie er sich vor allem durch die Nutzung der Shutdown-Funktion optimieren ließ. Es kam ein SelfService Portal hinzu, über das Mitarbeiter von Zuhause aus in der Lage waren, ihren Arbeitsplatz-PC einzuschalten, um sich damit bspw. Remote zu verbinden und noch ein paar weitere Kleinigkeiten mehr. Die Installation gestaltete sich daher beliebig komplex – und alles was wir hatten, war InstallShield. Dieses Produkt hat eine sehr bunte Vergangenheit und mehrere Aufkäufe hinter sich. Inzwischen gehört es glaube ich Flexera. Das Setup für WOL.NET musste Webseiten im IIS einrichten und konfigurieren, Dienste installieren, Service-Konten erstellen und Berechtigungen zuweisen, Datenbank-Schemata einrichten und von Version zu Version migrieren, Updates ermöglichen und vieles mehr. Da InstallShield bspw. zwar Standard-Dialoge mit sich bringt, um Benutzerkonten im AD anzulegen (das aber pro Setup auf EIN Konto beschränkt) begann hier eine Odysee, die u.a. auch in der Entwicklung C++ basierter Custom Actions mündete für die Prüfung eingegebener Kennwörter oder das Zuweisen von Berechtigungen. Bis das Setup vollständig funktionierte, ist sehr viel Zeit ins Land gegangen, aber das Ergebnis konnte sich sehen lassen.

Mehr Verkäufe konnten wir dadurch allerdings nicht verzeichnen. Eine schöne Anleitung und vielleicht das ein oder andere Powershell-Script hätten es vermutlich auch getan.

Verified for Windows

Als langjähriges Mitglied im Microsoft Partner Network sind wir stolz darauf, dass wir bereits seit über zehn Jahren in der einen oder anderen Weise Goldpartner sind. Zunächst ganz allgemein, später in immer mindestens einer Kompetenz (nachdem Microsoft ich glaube 2010 das Modell geändert hat). Darunter fiel auch die sog. ISV Kompetenz (Independent Software Vendor). Der Vorteil, eine solche Kompetenz inne zu haben, liegt darin, zum einen damit werben zu können: Ein schickes Logo gibt es nämlich gratis dazu. Zum anderen verteilt Microsoft damit auch kostenlose Softwarelizenzen, die bspw. für Entwicklungs-, Test- und Demonstrationszwecke eingesetzt werden können. Zwei gute Gründe für uns also, die ISV Kompetenz zu erwerben. Dem vorgeschaltet war allerdings, dass man als ISV mindestens ein Softwareprodukt von einem unabhängigen Institut testen lassen musste. Für WOL.NET aber genügte es nicht, das Setup durchlaufen zu lassen und dann ein wenig in der Software herumzuklicken. Nein, man benötigte einen Domaincontroller, einen SQL Server, ein installiertes und voll funktionsfähig konfiguriertes SMS 2003 nebst mindestens einem physischen Client, den man auch aufwecken kann und der in SMS bekannt sein musste. Im ersten Durchlauf mit der Firma Veritest haben wir also ein Notebook aufgesetzt und alles vorinstalliert und konfiguriert, was ging, eine hübsche CD mit WOL.NET drauf dazugepackt und um einen Testleitfaden ergänzt. Das ganze Paket ging dann auf die Reise nach England und wiedergesehen haben wir es nie wieder.

CD CoverNach einigen Nachfragen konnte Veritest immerhin bestätigen, dass WOL.NET tat, was wir behaupteten und verpassten dem Produkt das Label “Verified for Windows”. Wir wurden daraufhin ISV und freuten uns. Später wurde aus WOL.NET RPM (Remote Power Management) und der Prozess mit Veritest gestaltete sich plötzlich viel einfacher:

Auf einmal mussten die Binaries gar nicht mehr digital signiert sein. Wir brauchten gar keinen Account auf winqual.microsoft.com mehr und das dazu notwendige teure Zertifikat von Verisign war ebenfalls unnötig. Auch das Setup musste nicht signiert sein. Das Label “Verified for” benötigt das alles nicht, ob wir das nicht gewusst hätten? “Tested for…” setzt Zertifikate voraus. Spannend. Und darüber hinaus gibt es eine Testsuite, die wir herunterladen könnten, um die Software selbst zu testen. Die Ergebnisse werden verschlüsselt an Veritest übertragen und die würden sie daraufhin über ihre eigene Suite bestätigen. Wir bräuchten gar keine Hardware schicken, das ginge auch so.

Wir fragten also: Was ist eigentlich aus dem letzten Notebook geworden, das wir euch geschickt haben? Und Veritest so: “Ach das… das liegt hier noch rum… wollt ihr es wiederhaben?”. Auf die Erkenntnis hin, was für Mühen und Aufwand die Retour produziert hätten, haben wir die freundlichen Kollegen von Veritest gebeten, das Gerät zu entsorgen.

Marketing

Ungefähr zu der Zeit sollte für die Einführung von Windows 7 eine virtuelle Konferenz stattfinden. Ebenfalls gab es eine Website von Microsoft die für speziell für das OS kompatible Anwendungen bekannter ISVs warb. Auch wurden hier die ersten Marketplaces beim Redmonder Konzern geboren und überall waren wir dabei. Unser Unternehmen wurde auf allen Plattformen präsentiert, wir wurden in den Lösungskatalog aufgenommen und standen in der Liste für Windows 7 kompatible Anwendungen. Gebracht hat all das leider nichts. In all den Jahren gab es genau eine Anfrage zu RPM 2009, die über Microsoft Pinpoint ihren Weg zu uns fand. Der Admin einer kleinen IT Schmiede war geschockt, als wir ihm unser Preismodell erklärten und meinte, er hätte Skripte, die das gleiche täten für lau. Für seine Umgebung mag das sogar stimmen.

RPM_2009_BoxShotAuch haben wir dem Kind einen professionellen Anstrich gegeben. RPM erhielt einen Box Shot, der Lust auf mehr machen sollte. Dass das für ein Produkt dieser Kategorie kein wirklich ausschlaggebender Faktor ist, sei einmal dahingestellt. Zusammen mit dem Installationssystem stellt es im Nachhinein vermutlich den Teil des Aufwandes dar, auf den wir getrost hätten verzichten können. Im Vergleich zum MSI war der zeitliche Aufwand für den Box Shot immerhin sehr gering und das Ergebnis sah nett aus. Ich frage mich bis heute, warum wir die Grafik nicht in den Installer eingebaut haben…

Funktionsvielfalt

Viele Funktionen sind auf besonderen Kundenwunsch entstanden. Da wir aber nie mandantenabhängig entwickelt haben, waren Funktionen, die durch einen Kunden in das Produkt Einzug hielten, fortan auch für alle weiteren Kunden verfügbar. Während das zunächst einmal nach etwas Gutem für die Kunden klingt, hat es uns persönlich vor eine immense Herausforderung gestellt: Die Funktionen genügten zumeist den exakten Anforderungen des ursprünglichen Auftraggebers und funktionierte super in dessen Infrastruktur. Das bedeutete aber nicht zwangsläufig, dass sie auch überall anders funktionierten. Wir mussten schnell lernen, dass insbesondere im Bereich der Infrastrukturen kein Ei dem anderen gleicht. Ein Kunde benötigte bspw. ein Kommandozeilentool (heute würde man CLI sagen für Commandline Interface), über das sich ein Client direkt aufwecken lässt. Während wir zwar seit Anbeginn von WOL.NET so ein Tool hatten (ursprünglich, um die Funktionalität zu testen), war nun aber die Anforderung, auch die Ausnahmelisten von RPM zu nutzen und das Logging noch dazu. Sprich: Das Tool durfte den Befehl nicht selbst absetzen, sondern musste einen Job in der RPM Datenbank hinterlegen, ganz genau so wie es auch die Webanwendung täte. Das hat sehr gut funktioniert, hatten wir doch die gesamte Geschäftslogik in Bibliotheken verkapselt und mussten sie nun nur einfach in einem Konsolenprojekt orchestrieren. Leider hatten wir die Rechnung nicht mit den Sicherheitsfanatikern anderer IT-Abteilungen gemacht: Was beim Auftraggeber wunderbar funktionierte, scheiterte bei anderen Kunden daran, dass die direkte Verbindung zum SQL Server von SCCM 2007 nicht von den Admin-Maschinen aus erlaubt war, sondern nur vom SCCM Server aus. Unser Kommandozeilentool funktionierte also nur von einer Konsolen-Session direkt auf dem SCCM Server.

Wartung und das schleichende Ende

Ganz genau so wie Hersteller anderer Softwareprodukte boten wir unseren Kunden natürlich auch Wartungsverträge an. Dabei stellte sich aber verhältnismäßig schnell heraus, dass hier die Rechnung nicht aufging: Der Betrag, den die Kunden per anno dafür zahlten, wurde durch den Aufwand, der durch Anfragen entstand, bei Weitem überstiegen (wann man unsere regulären Tagessätze als Berater in Projekten als Maßstab nimmt). Hinzu kam allerdings ein viel gravierenderes Problem: Als Unternehmensberatung war und ist unser zentrales Anliegen, unsere Mitarbeiter in Projekte zu bringen. Es konnte also selten sichergestellt werden, dass jemand mit WOL.NET / RPM Entwicklungskompetenz verfügbar war, wenn er oder sie gebraucht wurde. Das hat dazu geführt, dass die Arbeit an der Software nach und nach eingestellt wurde und im Laufe der Zeit auch unser Vertrieb in dieser Hinsicht das Engagement einstellte. Heute gibt es nur noch zwei Kunden, die das Produkt einsetzen – soweit wir es sagen können. Die letzten Funktionen, die dabei durch uns ergänzt wurden betrafen die Kompatibilität zu SCCM 2012, sowie die Einführung einer Unterstützung für intels Active Management Technology (AMT), mit der sich inzwischen sogar gezielt Clients aufwecken und herunterfahren lassen – ganz ohne Magic Packet und die damit verbundenen Herausforderungen. Auf der Strecke geblieben sind dabei das Installationssystem – nachdem sich unsere alte InstallShield 2009 Lizenz mangels Herstellerseite nicht mehr reaktivieren lässt und das eine oder andere Feature, das nicht benötigt und von uns daher vorsorglich aus dem Paket entfernt wurde. Dafür hat das Kind einen neuen Namen: RPM Core. So heißt es übrigens auch bei uns in der Quellcodeverwaltung – wie praktisch.

Fazit

Was als ambitioniertes Projekt begann, entwickelte sich rasant zu dem umfangreichsten Stück Software, dass die TOP TECHNOLOGIES innerhalb von über zehn Jahren hat entstehen lassen. Fast alle Mitarbeiter mit Fokus auf Softwareentwicklung durften ihre Kompetenz mit einbringen und auch der eine oder andere Auszubildende hat sich seine Hörner daran abstoßen können. Wir haben viel über die Entwicklung von Enterprise-fähigen Produkten gelernt, über komplexe IT Infrastrukturen, die Zusammenarbeit mit Agenturen, die Handbücher übersetzen – und über das Erstellen von Produkthandbüchern im Allgemeinen, über den Entwurf und die Umsetzung komplexer Installationsszenarien und worauf man beim Logging achten sollte – und was man lieber bleiben lässt (viel ist nicht immer gut –> gut ist gut.)

Trotz allem: Wir sind kein Produktentwicklungshaus und haben einige Jahre gebraucht, um zu verstehen, dass unser Geschäftsmodell nicht kompatibel zur Entwicklung eines Produktes wie RPM ist. Ich bin stolz auf unsere Geschäftsführung, die in WOL.NET von Anfang an ein großes Potential erkannte und das Risiko einging, es über die Jahre hinweg auch als Investition zu betrachten. Sie standen jederzeit mit Rat und Tat hinter dem Produkt und waren zugleich Mentoren für uns Entwickler wie auch Ideengeber für sinnvolle Funktionen! Es war eine schöne Zeit, in der wir alle viel gelernt haben, die nun aber zu Ende geht. Vermissen werde ich sie dennoch nicht, da sich auch mein eigenes Aufgabenfeld verändert hat und inzwischen keiner meiner Mitarbeiter mehr aktiv an dem Projekt arbeitet. Dennoch war gerade die sehr intensive Zusammenarbeit mit Kollegen an unserem eigenen Produkt auch eine spannende Zeit für die ich dankbar bin!

Das Internet der Dinge–Heiliger Gral oder Büchse der Pandora?

Noch bevor von IoT überhaupt ansatzweise gesprochen wurde oder mit M2M oder MQTT Protokolle existierten, die die einfache Kommunikation unterschiedlichster Geräte untereinander möglich machen, wurden uns Kühlschränke versprochen, die die Nahrungsmittel selbst einkaufen, sobald sie zur Neige gehen. Über das Internet natürlich.

Mikrowellen mit Touch-Displays folgten alsdann in der Vorstellung erstrebenswerter Internetkonnektivität. Irgendwann auf der Zeitachse tauchten dann die Sports-Tracker auf, die inzwischen Armbanduhren fast abgelöst haben und nicht zu vergessen natürlich der berühmte Plastikhase aus Armenien, der so niedlich mit den Ohren kreisen und einem Podcasts vorlesen konnte.

Bis vor kurzem fand also eine durchaus spannende Entwicklung statt, die – so scheint es – nicht nur begeisterte Always-On Anhänger verfolgt haben, sondern auch Beachtung durch die dunkle Seite der Macht fanden.

Jüngst erschütterte ein weltweiter Ausfall führender Dienstleistungsanbieter in den Bereichen der sozialen Netzwerke, des Online-Shoppings oder Media-Sharings Mitglieder der Generation-Y und jünger. Was war passiert? Wie war es möglich, dass eine verteilte Denial of Service Attacke so weitrechende Folgen haben konnte? Sind dafür nicht viel zu viele Computer notwendig?

Ende September titelte golem.de dazu: “Das Internet of Things gefährdet das freie Netz” und schreibt weiter: “Es ist bekannt, dass die Sicherheit von nahezu allen IoT-Geräten lächerlich schlecht ist.”.

Etwa einen Monat später dann die erste Angriffswelle: Gleich drei aufeinander folgende DDOS Attacken legten zahlreiche Internetseiten lahm. Darunter Twitter, Netflix, Amazon, Soundcloud und diverse mehr. Solche Angriffe sind im Prinzip nicht neu. Neu ist indes, dass sie dieses Mal hauptsächlich von Babyphones, Multimediafestplatten, Kameras und Spielekonsolen ausgegangen sind. Derzeit wird davon ausgegangen, dass es sich dabei zudem nur um einen Testlauf handelte. Sozusagen ein Proof of Concept.

Das Konzept funktioniert also ziemlich gut, die Büchse wurde damit quasi geöffnet. Und wenn man bedenkt, dass in naher Zukunft nahezu jedes Gerät, das elektronisch betrieben wird, über Zugang zum Internet verfügen wird, ergeben sich daraus wirklich interessante Szenarien – und das nicht unbedingt im positiven Sinne.

Wie mit allen Technologien verhält es sich doch so: Zunächst einmal sind sie im Grundsatz neutral. Erst durch das, was wir damit machen, gelangen sie zu einer Einschätzung, ob sie für unsere Gesellschaft eher positiven oder negativen Nutzen haben. Das Thema IoT ist allerdings so umfassend und die Konsequenzen, die sich daraus ergeben heute noch so wenig abschätzbar, dass der sinnvollste Weg zu sein scheint, die kommenden Generationen bereits frühzeitig damit zu konfrontieren begeistern.

Bildung, Kompetenzaufbau und Förderung kreativer Ansätze können dazu beitragen, dass nicht nur sinnvolle Anwendungsfälle für diese neuen Technologien entstehen, sondern diese auch für die positive Entwicklung unserer globalen Gesellschaft eingesetzt werden.

Conrad bspw. beschreitet in diesem Jahr erneut den richtigen Weg, indem der Elektronik Versandhändler bereits zum zweiten Mal einen passenden Adventskalender anbietet, der sich dem Thema IoT spielerisch nähert und in 24 Experimenten spannende Möglichkeiten aufzeigen soll.

Doch genügt das? Wie gehen Schulen damit um? Wo findet IoT in den Berufsschulen statt? Was passiert in den Studiengängen rund um die Bereiche Informatik und Elektrotechnik? In wieweit wird das Thema auch außerhalb der technischen Berufe und Studiengänge angegangen?

Und unsere Kunden? Wir entwickeln Webanwendungen, mobile und auch ganz allgemein Cross-Plattform Apps, Desktop-Anwendungen mit Windows Forms und WPF. Alles ganz klassisch. Die höchste Form der Interkonnektivität wird durch Schnittstellen zu weiteren Legacy-Systemen erreicht. Wo sind hier die Sensoren, die viele Informationen selbständig bereitstellen und mittels geeigneter Software in die Systeme integrieren könnten? Wo ist die KI, die aus dem Nutzerverhalten selbständig schließen kann, wie bestimmte Prozesse optimiert werden könnten? Wo sind die offenen Protokolle, die hunderte proprietäre Schnittstellen endlich obsolet machen und den Fokus auf die tatsächlichen Anwendungsfälle zurücklenken könnten?

Erkennt ihr in eurem täglichen Business bereits Anzeichen für diesen Wandel? Steckt ihr schon mitten drin? Oder wird sich an eurem klassischen Geschäftsmodell voraussichtlich auch in den nächsten fünf Jahren nicht Wesentliches verändern? Ich freue mich über Kommentare!

Bis dahin öffne ich mal mein erstes Türchen im Conrad Adventskalender und freue mich auf spannende Experimente bis zur angekündigten Überraschung an Heiligabend. Hoffentlich handelt es sich bei dem zentralen Chipsatz nicht um ein Produkt von Xiongmai Technologies

Shall we play a game? Tic-Tac-Toe mal anders

Für die einen ist es nichts weiter als Drei Gewinnt. Den anderen zaubert es ein nostalgisches Schmunzeln ins Gesicht, während sie an Joshua, die einsichtige KI aus dem Klassiker War Games denken. Für mich ist Tic-Tac-Toe ein schönes Beispiel dafür, wie unterschiedlich Softwareentwickler Strategien zur Lösung eines Problems entwickeln.

Für Tic-Tac-Toe gibt es 255.169 verschiedene Spielverläufe, von denen 131.185 mit einem Sieg des ersten Spielers enden, 77.904 mit einem Sieg des zweiten Spielers und 46.080 mit einem Unentschieden. (Quelle: Wikipedia)

Während die Anzahl an Spielverläufen somit übersichtlich ist, gestaltet sich die Entwicklung eines Tic-Tac-Toes in z.B. C# sogar noch einfacher, wenn es nur als Zweispieler (ohne selbst-lernende KI) gedacht ist. Doch während sich die meisten gleich als erstes die Frage danach stellen, wie sie das Spielbrett visualisieren und die Interaktion mit dem Spieler gestalten sollen (Windows Forms, HTML, WPF,…) ist dieses Spiel aus meiner Sicht einfach zu gut dafür geeignet, um sich über TDD Gedanken zu machen, als dass man es ignorieren könnte.

Klar. Ein Gameboard ist schnell entworfen und nach der Überlegung, dass es nicht mehr als neun Felder gibt, sind auch die ersten Tests schnell geschrieben.

GameBoardTests.cs

[TestClass]
public class GameBoardTests
{
  private GameBoard board = null;

  [TestInitialize]
  public void TestInitialize()
  {
    this.board = new GameBoard(null);
  }

  [TestMethod]
  [TestCategory("GameBoard")]      
  public void Fail_If_Greater_Than_Max()
  {
    Action action = () => board.Set(9);
    action.ShouldThrow<ArgumentOutOfRangeException>();
  }

  [TestMethod]
  [TestCategory("GameBoard")]
  public void Fail_If_Less_Than_Min()
  {
    Action action = () => board.Set(-1);
    action.ShouldThrow<ArgumentOutOfRangeException>();
  }
}
  

 

(Für die Prüfung erwarteter Exceptions kommt hier übrigens das Paket FluentAssertions zum Einsatz.)

GameBoard.cs

public class GameBoard
{
  public void Set(int pos)
  {
    if (pos < 0 || pos > 8) throw new ArgumentOutOfRangeException("The gameboard only consists of nine fields. Please set a new coin only on positions from zero to eight.");
  }
}       
  

 

Doch nun kommt schon die Frage: Angenommen, ein Spieler entscheidet sich für ein gültiges Feld. Wie genau soll das gespeichert werden? Und dann gleich die nächste Frage: Wie genau soll der Code ermitteln, ob jemand gewonnen hat?

Während nahezu jede Beispielimplementierung von Tic-Tac-Toe an dieser Stelle mit einem zweidimensionalen Array arbeitet und für die Gewinnermittlung verschachtelte If-Then-Else Abfragen nutzt, schlage ich einfach mal folgende Datentypen für die Verwaltung des Spielbrettes und der Gewinner-Kombinationen vor:

GameBoard.cs

private int board = 0;
private int[] winningCombinations = { 448, 56, 7, 292, 146, 73, 273, 84 };
  

 

Mehr braucht es eigentlich nicht. Genial, oder?

Die Idee ist im Prinzip recht simpel: Das Tic-Tac-Toe Spielfeld besteht aus 9 Feldern. Es ist also problemlos möglich, die Felder binär zu repräsentieren (000 000 000). Damit ließen sich auch die Gewinnerkombinationen einfach festlegen:

  • Horizontal: 111 000 000, 000 111 000, 000 000 111
  • Vertikal: 100 100 100, 010 010 010, 001 001 001
  • Diagonal: 100 010 001, 001 010 100

Mehr gibt es nicht. Umgerechnet in Dezimalwerte ergibt sich daraus die Liste von Zahlen wie oben im Array winningCombinations dargestellt.

Das ist in sofern pfiffig, als dass sich mit nur einer Schleife herausfinden lässt, ob ein Gewinner vorliegt. Dazu muss einfach nur über das obige Array iteriert und der jeweilige Wert mit dem Spielbrett bitverknüpft werden. Fertig.

Wer mitgedacht hat, wird spätestens jetzt sagen: Ja, aber! Es gibt zwei Spieler. Daraus ergeben sich drei Zustände und ein Bit kann nur zwei Zustände haben:

  • Feld unbesetzt
  • Feld von Spieler 1 besetzt
  • Feld von Spieler 2 besetzt

Ich sage: Richtig. Also speichern wir einfach für jeden Spieler in dem Integer ein separates Spielbrett. Das ergibt somit 18 Bit und ist problemlos abbildbar (Dezimal 262.143). Worauf nun lediglich geachtet werden muss, ist beim abwechselnden Setzen von X und O durch Spieler 1 und Spieler 2 a) das korrekte Spielbrett innerhalb des Integers zu erwischen und b) darin wiederum das korrekte Feld. Das ermöglichen Bit-Shift Operationen:

GameBoard.cs

public enum Player
{
  Player1,
  Player2
};

private int GetPosition(int pos, Player player){
  return (1 << (int)player * 9) << pos;
}
  

 

Die Frage von oben, wie sich denn nun die gewählten Felder der jeweiligen Spieler in der Integer Variablen festhalten lassen, ist damit leicht beantwortet:

GameBoard.cs

public void Set(int pos)
{  
  if (pos < 0 || pos > 8) throw new ArgumentOutOfRangeException("The gameboard only consists of nine fields. Please set a new coin only on positions from zero to eight.");

  this.board |= this.GetPosition(pos, this.ActivePlayer);
}
  

 

Da dieser Artikel mehr auf die etwas ungewöhnliche Art, ein Tic-Tac-Toe Spielbrett in C# abzubilden abzielt und weniger auf den testgetriebenen Ansatz, kommt an dieser Stelle der Hinweis: Bevor es zu dieser Implementierung gekommen ist, wurden zunächst Tests für das Setzen von Feldern, der Prüfung, ob ein Feld bereits belegt wurde und dann irgendwann das Prüfen verschiedener Gewinner-Konstellationen implementiert. Abschließend wurde der Spielverlauf selbst mittels Strategie-Muster entworfen und getestet.

Wichtig hierbei war natürlich die Entkopplung von Abhängigkeiten (wie z.B. Benutzereingabe und Bildschirmausgabe).

Um aber noch kurz zu zeigen, wie einfach basierend auf der hier vorgestellten Methode das Prüfen auf einen Gewinner ist, der Vollständigkeit halber noch der dazugehörige Code:

GameBoard.cs

public bool CheckWinner()
{
  foreach (int winningCombination in this.winningCombinations)
  {
    if (this.IsMatch(winningCombination))
    {
      return true;
    }
  }
  return false;
}

private bool IsMatch(int combination)
{
  return (this.board & combination << 9) == combination << 9 || // Check if player 2 won
    (this.board & combination ) == combination; // Check if player 1 won
}
  

 

Spannend, oder? Falls sich jemand für die Solution interessiert, lohnt sich ein entsprechender Kommentar. Auch der TDD Ansatz lässt sich hier ganz gut demonstrieren: In der ersten Iteration gab es noch zwei Integer-Variablen für die Repräsentation der Spielfelder für beide Spieler (und natürlich eine Menge Unit-Tests). Im Anschluss wurde der Game Code refaktorisiert, so dass nur noch eine Integer Variable wie oben gezeigt notwendig war. Die bestehenden Unit Tests konnten zeigen, dass die Logik (von außen betrachtet) dadurch keinen Schaden genommen hat.

Und so soll es schließlich ja auch sein.

Smile 

Bugfix: Glossar Beschreibung im OIA anzeigen

Mit diesem Artikel folgt ein weiteres Deep Dive in die Welt des OIA (Oracle Identity Analytics). Dieses Mal vor dem Hintergrund eines Bugs, dessen Lösung im Folgenden beschrieben wird.

Im letzten Artikel haben wir gezeigt, wie eine Zertifizierung auf der Grundlage lokaler Konten konfiguriert und durchgeführt werden kann. Da es dabei erforderlich ist, Primärschlüssel zusammenzusetzen, entstehen für die Attribute relativ lange Namen. Das macht die Darstellung für den Zertifizierer unübersichtlich.

Zu sehen war deswegen in dem Artikel, wie beispielsweise die Gruppenmitgliedschaft zwar als Kombination zwischen Server, Account und Gruppe importiert wurde (“SRV01 > A000002 > Users”), die Anzeige sich aber während der Zertifizierung auf die Darstellung der Gruppe beschränkt:

image

 

Klickt nun der Zertifizierer auf die Gruppe, können Glossarinformationen angezeigt werden, die in diesem Beispiel im Feld Description eine Beschreibung des Servers mitführt. Das kann dem Zertifizierer dabei helfen, den Kontext besser zu verstehen. Damit das funktioniert, müssen ressourcenabhängig Glossarinformationen importiert werden.

Import Glossary

Datei: …\import\schema\Betriebssystem_glossary.rbx

# @iam:namespace name="Betriebssystem" shortName="OPS"
attributeName,atributeValueValue,endpointName,definition,shortDescription

Datei: …\import\in\Betriebssystem_01_glossary.csv

"groups","SRV01 > D000001 > Users","Windows","Users","Zentraler Entwicklungsserver"
"groups","SRV01 > D000001 > Developers","Windows","Developers","Zentraler Entwicklungsserver"
"groups","SRV01 > A000002 > Administrators","Windows","Administrators","Zentraler Entwicklungsserver"
"groups","SRV01 > A000002 > Users","Windows","Users","Zentraler Entwicklungsserver"

Das Ergebnis des Imports kann nun im Identity Warehouse im Bereich Data Management der jeweiligen Ressource eingesehen werden:

image

Wenn der Zertifizierer während der Zertifizierung nun wie oben dargestellt auf einen Glossareintrag klickt, erhält er aber folgendes Popup:
image

 

Was fehlt, ist die Description. Und der Grund hierfür ist der oben erwähnte Bug in OIA.

Analyse

Bei der Analyse des Datenstroms zwischen Server und Browser mit Hilfe der Internet Explorer Developer Toolbar hat sich gezeigt, dass die Daten für das Popup über den Service dwrIDCService mit der Methode loadBatchUserAccounts gezogen werden. Der Blick in den Quellcode hat zutage gefördert, dass am Ende die Abfrage getIDCAccountAttributesFlatByUser ursächlich für das Problem verantwortlich ist. Da allerdings im OIA das (inzwischen abgemeldete) Produkt iBATIS zum Einsatz kommt, lässt sich die Abfrage leicht einsehen. Sie befindet sich in der Datei IDCAccount.xml im Verzeichnis …\WEB-INF\classes\com\vaau\rbacx\idc\dao\ibatis\maps.

Zunächst wird in der Abfrage ein Defaultdatensatz erzeugt:

<select id="getIDCAccountAttributesFlatByUser" resultMap="account-attribute-wrapper">
  select
  null as attribute_value_id,
  null as attribute_id,
  null as attribute_value,
  null as glossary_def,
  null as short_description,
  null as attribute_name,
  ,
  

 

Einige Zeilen später findet ein Union statt mit einer Abfrage, die die tatsächlichen Daten aus der Datenbank bezieht. Hier zeigt sich das Problem:

select 
   
  idc_account_attributes.short_description as short_description, 
    
from 
  idc_account_attributes, attributes, idc_user_acct_attrs, idc_accounts, namespaces 
  
  

 

Der Blick in die Datenbank zeigt, dass sich hier schlicht keine Daten befinden. Die Glossarinformationen wurden beim Import nämlich in die Tabelle attribute_value_metadata eingelesen.

Lösung

Die Abfrage muss angepasst werden, so dass die Tabelle attribute_value_metadata mit einbezogen wird. Dabei ist darauf zu achten, über die Where-Klausel die Verknüpfung korrekt zu definieren.

select 
   
  attribute_value_metadata.short_description as short_description, 
   
from 
  idc_account_attributes,attribute_value_metadata, attributes,  
where 
  attributes.attributekey = idc_account_attributes.attribute_id and 
  attribute_value_metadata.attribute_value_id=idc_account_attributes.iam_attr_val_id and 
  attribute_value_metadata.endpoint_id=idc_accounts.endpoint_id and 
  idc_account_attributes.id = idc_user_acct_attrs.account_attribute_id and
   
  

Das war es auch schon.

An dieser Stelle ein leider notwendiger Hinweis: Soweit wir es sagen können, hat diese Änderung keine Auswirkungen auf das restliche Produkt. Da wir den OIA aber nicht entwickelt haben, können wir dafür keine Gewährleistung übernehmen. Sollten Sie daher ebenfalls Änderungen an Ihrem System vornehmen, geschieht das auf eigene Gefahr.

Fazit

Leider zeigt sich beim OIA, dass durch den turbulenten Lebenslauf (entwickelt von vaau, übernommen von Sun, gekauft von Oracle) die eine oder andere Unstimmigkeit entstanden ist. Von außen lässt sich natürlich schwer nachvollziehen, welches Unternehmen nun ursächlich für solche Probleme verantwortlich ist. Das ist aber auch unerheblich. Wichtiger ist, dass man sie lösen kann.

Wir konnten dieses Problem durch den Einsatz verschiedener Analysewerkzeuge inkl. Einsicht in den Quellcode identifizieren und nachhaltig beheben. Da von einem Unternehmen, das den OIA zum Zweck der Zertifizierung von Benutzern, Rollen und Konten einsetzt, natürlich kaum erwartet werden kann, so tief in die Technik einzusteigen wenn etwas nicht funktioniert wie erwartet, gibt es für Kunden i.d.R. nur eine Option: Bei Oracle einen Spezialisten einkaufen.

Oder aber Sie fragen uns. :)

Wie man wirklich (!) eine manuelle Korrekturverfolgung im OIA konfiguriert

Das Produkt Oracle Identity Analytics ist eine wirklich umfangreiche Anwendung zur Analyse von Rollen und Berechtigungen. Im Zusammenspiel mit dem Oracle Identity Manager (OIM) gelingt es zudem, sogar automatisiert Konsequenzen aus der Analyse zu ziehen: Sobald ein Manager bspw. einem Konto Berechtigungen entzogen oder eine Rollenzugehörigkeit aufgehoben hat, kann der OIA diese Information an den OIM weitergeben, der dann wiederum die Umsetzung erforderlicher Maßnahmen in der Infrastruktur auslöst (Deprovisioning). Gleichzeitig fungiert er auch als Provisioning Server und kann somit den OIA mit entsprechenden Daten beliefern, auf Grundlage derer die Manager den Status der Benutzer und deren Berechtigungen analysieren und letztendlich zertifizieren können. Diesen Prozess nennt Oracle Closed Loop Remediation und das dazugehörige Modul im OIA, welches diesen Prozess visualisiert, nennt sich Remediation Tracking, oder auf deutsch: Korrekturverfolgung.

Was aber, wenn es keinen OIM gibt? Dann spricht man von einer Open Loop Remediation, oder alternativ von einer erforderlichen manuellen Korrektur. Dieser Artikel beschreibt, was für Schritte erforderlich sind, damit der OIA in etwa das tut, was man von ihm erwarten würde.

Ausgangslage

  • Es wurden Resourcen-Typen angelegt und konfiguriert (in diesem Beispiel: Ein Ressourcen-Typ mit dem Namen Betriebssystem, dem Kurznamen OPS und einem Multivalue-Attribut groups in der Attributkategorie General)
  • Es existieren Global User (wird weiter unten erläutert)
  • Es wurden Accounts importiert, den Global Users zugeordnet und auf Ressourcen verteilt (wird weiter unten erläutert)

Auf dieser Grundlage ließen sich nun Zertifizierungen erstellen. Aber bevor es soweit ist, zunächst die Einstellungen für die Wartung von Konten und den OIA Prozess der Korrekturverfolgung.

Grundeinstellungen

Damit bei der Korrekturverfolgung auch erkannt werden kann, ob eine zu entziehende Berechtigung auch entzogen wurde, muss der OIA in der Lage sein, die zuvor importierten Daten zu einem Benutzer verändern zu können. In der IT wurde beispielsweise ein Konto von einem Server gelöscht oder eine Gruppenmitgliedschaft aufgehoben. Diese Information muss nun auch der OIA erhalten. Dazu gibt es zwei Möglichkeiten.

Explicit Revoke

Bei der expliziten Methode werden die Daten einfach erneut importiert. Im Falle eines Accounts wird zusätzlich der Parameter suspended übergeben. Der Wert 0 bedeutet, dass der Account aktiv ist (nicht suspended) und der Wert 1 deaktiviert ihn (suspend). Dazu muss natürlich der Parameter in der entsprechenden Schema-Datei (.rbx) angegeben sein.

Im Falle eines Attributes wie z.B. einer Gruppenzugehörigkeit, geht das natürlich nicht. Denn diese werden allenfalls in Form eines Multivalue-Feldes linear aufgelistet; man kann nicht zu jedem Attribut ein zusätzliches Feld wie z.B. suspended übergeben. Was aber geht: Weglassen. Sprich: Sobald ein Account erneut importiert wird, ohne dass die in Frage kommende Gruppenmitgliedschaft aufgelistet wird, erkennt der OIA sie als entfernt (revoked)

Implicit Revoke

Implizit bedeutet, dass der OIA die Korrektur selbst erkennt. Das geschieht auf Basis des letzten Update-Timestamps. Sobald mehr Tage seit dem letzten Import vergangen sind, als angegeben, kann der OIA den existierenden Datensatz selbst aktualisieren.

Schritt 1

In der Datei …\conf\iam.properties muss dazu die Account Maintenance konfiguriert werden (~Zeile 49):

# Account Maintenance parameters
# options { delete | suspend }
com.vaau.rbacx.maintenance.accounts.maintenanceAction=suspend
com.vaau.rbacx.maintenance.accounts.maxStaleDays=30
com.vaau.rbacx.maintenance.accounts.resources=All

Hier sind zwei Dinge zu beachten. Zum einen führt ein Löschen (delete) dazu, dass der Account in dem Fall tatsächlich gelöscht wird. In der Korrekturverfolgung (auf die ich später noch eingehe) gilt die Maßnahme damit zwar als umgesetzt. Allerdings kann sie den Account dann auch nicht mehr anzeigen und somit kann man auch die Historie nicht mehr einsehen. Die Einstellung suspend wiederum hat den Vorteil, dass man weiterhin Einblick in die Historie hat. Optisch führt das dazu, dass in der Account-Auflistung unterhalb der Global User der jeweilige Account ausgegraut wird.

image

 

Zum anderen ist hier der Wert maxStaleDays zu beachten. I.d.R. wird die Maintenance regelmäßig durchgeführt (z.B. einmal am Tag). Wenn nun die Accountdaten bspw. alle 10 Tage importiert werden und maxStaleDays auf einem niedrigeren Wert steht, dann werden regelmäßig alle Konten im OIA gelöscht, bzw. suspended. Insofern gilt es, den Wert auf die Import-Prozesse abzustimmen.

Schritt 2

Für sowohl die automatische Wartung von Accounts wie auch die Verarbeitung der Korrekturinformationen sind im OIA zwei Jobs zuständig. Diese werden ausgelöst von dazugehörigen Triggern. Beides muss aktiviert und konfiguriert werden.

In der Datei …\WEB-INF\scheduling-context.xml im Property jobDetails (~Zeile 157) sind die Jobs per Default auskommentiert. Sie müssen aktiviert werden:

<ref bean="accountsMaintenanceJob"/>

<ref bean="certificationRemediationJob"/>

In der gleichen Datei im Property triggers (~Zeile 195) sind die dazugehörigen Trigger per Default auskommentiert. Sie müssen ebenfalls aktiviert werden:

<ref bean="accountsMaintenanceTrigger"/>

<ref bean="certificationRemediationTrigger"/>

Schritt 3

Die soeben aktivierten Trigger müssen konfiguriert werden. Dabei dient ein Cron-Ausdruck dazu, anzugeben, wann die Jobs automatisch ausgeführt werden sollen.

In der Datei …\WEB-INF\jobs.xml wird die Bean accountsMaintenanceTrigger (~Zeile 516) konfiguriert:

<bean id="accountsMaintenanceTrigger" class="org.springframework.scheduling.quartz.CronTriggerBean">
 
<property name="jobDetail">
    <ref bean="accountsMaintenanceJob"/>
   </property>
  < property name="cronExpression">          
    < value>0 0 0 ? * SUN-THU</value>
  </property>
</bean>

Die cronExpression kann bspw. mit Hilfe von http://www.cronmaker.com/ erzeugt werden.

In der gleichen Datei wird die Bean remediationCertificationTrigger (~Zeile 938) konfiguriert:

<bean id="certificationRemediationTrigger" class="org.springframework.scheduling.quartz.CronTriggerBean">
  < property name="jobDetail">
    < ref bean="certificationRemediationJob"/>
  </property>
  < property name="cronExpression">
    <value>0 0/2 * * * ?</value>
  </property>
< /bean>

Auch hier ist die cronExpression zu beachten. Für Testzwecke kann es sinnvoll sein, beide Trigger auf z.B. 2 Minuten zu setzen, um schnell Ergebnisse beobachten zu können. Für die In-Produktivnahme sollten die Werte aufeinander abgestimmt sein.

Schritt 4

Sobald die Konfiguration durchgeführt wurde, muss der OIA neu gestartet werden, um die Änderungen zu übernehmen. Im Anschluss gilt es beim Erstellen einer Zertifizierung auf das Thema Korrekturverfolgung zu achten.

Unter Administration > Settings im Tab Identity Certification im Abschnitt Revoke and Remediation:

image

Hier sind gleich zwei Einstellungen bemerkenswert. Erstens hat die Checkbox Display Remediation Instructions keinerlei Auswirkungen. Unsere Annahme war, dass nach Abschluss einer Zertifizierung ein Manager die Instruktionen angezeigt bekommt, die wir später noch konfigurieren werden. Dem ist aber nicht so. Statt dessen sieht man diese ausschließlich an zwei Stellen: Zum einen, wenn man in einer Zertifizierung auf einen Resourcen-Namen klickt und zum anderen in verschiedenen Reports. Aber dazu später mehr.

Wir haben uns mit einem Decompiler den Code angeschaut und in der Tat: Dieses Setting wird nirgends genutzt.

Zweitens ist die Checkbox Perform Closed Loop Remediation (und die dazugehörige Einstellung Certification Completion Date) wichtig. Denn selbst wenn der Certification Remediation Job durch den entsprechenden Trigger, den wir bereits konfiguriert haben, ausgeführt wird: Wenn diese Checkbox nicht gesetzt wird, tut der Job nichts. Und das hat nichts mit der Closed Loop Remediation im Sinne einer Integration in den OIM zu tun. Sondern in jedem Fall mit der Korrekturverfolgung. Auch der “manuellen”.

Schritt 5

Wir sprachen eben von den Remediation Instructions. Diese werden in den Resourcen konfiguriert. Und auch hier gibt es Einiges zu beachten.

Unter Identity Warehouse > Resources klickt man auf eine Resource und wechselt in den Tab Remediation:

image

 

Für eine manuelle Korrektur wird entsprechend der Wert Manual ausgewählt. Zusätzlich gibt es die Möglichkeit, sich zwischen einem Plain Text und einem Rich Text Editor zu entscheiden. Hierzu ein Hinweis: Sollte man versuchen wollen, sich auf die mitgelieferten Reports zu beschränken, dann empfehlen wir den Plain Text Editor und hier lediglich auf z.B. ein internes Handbuch o.ä. zu verweisen, in dem die notwendigen Schritte für die Deprovisionierung beschrieben werden. Denn die Reports übernehmen für jede einzelne erforderliche Korrektur diesen Text und sind leider nicht in der Lage HTML zu erkennen. Sprich: Wenn man den Rich Text Editor nutzt und viel Text eingibt (mit jeder Menge Formatierungen), erscheinen diese inkl. HTML-Tags im Report. In jedem Datensatz. Soviel dazu.

Datenimport

Ausgehend davon, dass z.B. User- und Accountdaten wie folgt mittels CSV-Dateien importiert wurden, kann nun eine Zertifizierung erstellt werden. Doch zunächst die Daten:

Import Global User

Datei: …\import\schema\users.rbx (Schema)

userName,firstName,lastName,primaryEmail

Datei: …\import\in\users_01.csv

"D000001","Timo","Tempel","Timo.Tempel@domain.com"

"A000002","Yasmin","Markmann","Yasmin.Markmann@domain.com"

Import Accounts

Datei: …\import\schema\Betriebssystem_accounts.rbx

# @iam:namespace name="Betriebssystem" shortName="OPS"
userName<CorrelationKey>,name,endpoint,groups,suspended

Datei: …\import\in\Betriebssystem_01_accounts.csv

"D000001","SRV01 > D000001","Windows","SRV01 > D000001 > Users,SRV01 > D000001 > Developers","0"
"A000002","SRV01 > A000002","Windows","SRV01 > A000002 > Administrators,SRV01 > A000002 > Users","0"

Wem die seltsame Nomenklatur aufgefallen ist, sei folgender Hinweis mitgegeben: Für dieses Szenario zwar unerheblich, orientiere ich mich aber dennoch an einem Kundenprojekt, in dem wir es mit der Zertifizierung lokaler Benutzerkonten zu tun haben. Da hier ein Kontoname (z.B. D000001) auf mehreren Servern vorkommen kann und dabei nicht zwangläufig identisch ist (da nicht zentral verwaltet mittels bspw. dem Active Directory), benötigen wir zusammengesetzte Primärschlüssel. Gleiches gilt für z.B. Gruppenmitgliedschaften, die wir als Multivalue-Felder konfiguriert haben. Wie man trotzdem eine halbwegs annehmbare User Experience während der Zertifizierung hinbekommt, erkläre ich evtl. ein andern Mal.

Zertifizierung

Nachdem eine Zertifizierung erstellt wurde, stellt sich diese für den Manager wie folgt dar:

image

 

image

 

Der Manager entzieht nun Timo Tempel den Account auf SRV01 und Yasmin Markmann wird die Mitgliedschaft in der Gruppe Administrators entzogen.

Inder Korrekturverfolgung unter Identity Certification > Remediation Tracking zeigt sich nun, dass der OIA das Delta zwischen SOLL und IST verstanden hat:

image


In den Details zeigt sich z.B., dass Yasmin aus der Gruppe Administrators entfernt werden soll:

image

 

Zu Timo zeigt der OIA an, dass er aus sowohl der Developers als auch der Users Gruppe entfernt werden muss. Soweit alles OK.

Zur Demonstration wird nun eine neue Betriebssystem_01_accounts.csv Datei importiert:

"D000001","SRV01 > D000001","Windows","","1"
"A000002","SRV01 > A000002","Windows","SRV01 > A000002 > Users","0"

Hier zu erkennen: In Timos Datensatz wurden die Gruppen entfernt; außerdem wird sein Account suspended. Yasmin wurde einfach nur aus der Gruppe Administrators entfernt.

Im Remediation Tracking schaut das dann so aus:

image

 

Klickt man nun im Remediation Tracking bei Yasmin bspw. auf den Attributwert Administrators, lässt sich im Akkordeon Certification History auch die Historie anzeigen:

image

 

Auch ohne das Neu-Importieren der Datensätze wie oben beschrieben hätte der OIA die Korrektur erfolgreich erkannt, sobald eine entsprechend maxStaleDays Anzahl an Tagen verstrichen wäre.

Im Prinzip ist es nicht kompliziert, den OIA für eine manuelle Korrekturverfolgung zu konfigurieren. Allerdings verlangt es an einigem Know-How und unglücklicherweise schweigt sich die Dokumentation vom Hersteller zu diesem Thema gänzlich aus. Darüber hinaus gibt es noch einige weitere Themen in diesem Zusammenhang, auf die ich nicht im Detail eingegangen bin. Hoffentlich wurden trotzdem einige wesentliche Punkte etwas klarer!

Falls dennoch Fragen offen sind, stehen wir wie immer gerne zur Verfügung. Dazu freuen wir uns über eine Email über unser Kontaktformular auf http://www.toptechnologies.de.

Project Spark 4.5 unter Visual Studio 2015

Nein, mit Projekt Spark ist nicht der kürzlich eingestellte Microsoft Spielebaukasten für selbst ernannte Game Designer gemeint, sondern ein simples, leichtgewichtiges ORM Framework der data & objects Factory. Während zwar eine Version 5.0 analog zur kommenden Version vom .NET Framework bereits in Arbeit ist, kann bis zum Erscheinen natürlich die Version 4.5 weiterhin genutzt werden.

Allerdings hat sich seit Visual Studio 2013 einiges geändert. Beispielsweise wird inzwischen die LocalDB in der Version 13 eingesetzt; Spark setzt auf Version 11 auf. Dieser Artikel soll die Schritte beschreiben, die notwendig sind, um die Referenzapplikation Art Shop (“A fully functional, real-world e-commerce Web App”) unter Visual Studio 2015 zum Laufen zu kommen.

Los geht’s.

;tldr

  1. Solution in Visual Studio 2015 öffnen
  2. Datenbank von (LocalDB)\v11.0 nach (LocalDB)\MSSQLLocalDB migrieren
  3. Mittels NuGet das Paket AspNetWebApi im Projekt Art.Rest.v1 installieren

Schritt 1

Als erstes kann die Solution Spark 4.5.sln aus dem Verzeichnis Spark wie gewohnt im Visual Studio 2015 geöffnet werden. Möglicherweise erscheint an dieser Stelle bereits eine Meldung, die einen darauf hinweist, dass die eingesetzte Datenbank nicht mit der aktuellen Installation der LocalDB kompatibel ist. Diese Meldung behauptet, es reiche aus, auf die Datei Art.mdf doppelt zu klicken, um die Migration anzustoßen. Das funktioniert aber leider nicht.

Schritt 2

Mittels View –> Service Explorer den Service Explorer öffnen und mittels Rechtsklick auf Data Connections –> Add Connection… den Verbindungsassistent öffnen. Als Server Name (LocalDB)\MSSQLLocalDB eingeben und mittels <Test Connection> die Verbindung prüfen. Wenn das geklappt hat, über die Auswahl Attach a database file die Datei …\Spark\Art.Web\App_Data\Art.mdf auswählen und den Assistenten mit <OK> schließen. Die Meldung, die daraufhin erscheint mit <Ja> quittieren; nun wird die Datenbank migriert.

Schritt 3

Wenn man an dieser Stelle versucht, das Projekt zu kompilieren (nur zu…), dann gibt es dutzende Fehler. Diese gründen im Wesentlichen darauf, dass die Referenz zu System.Web.Http im Projekt Art.Rest.v1 kaputt ist. Das Problem kann einfach wie folgt behoben werden:  Mittels Tools –> NuGet Package Manager –> Package Manager Console die NuGet Package Manager Console öffnen und zunächst unter Default Project das Projekt Art.Rest.v1 auswählen. Dann mittels Install-Package AspNetWebApi die ASP.NET WebApi Bibliotheken im Projekt Art.Rest.v1 installieren. Anschließend kann das Projekt kompiliert und ausgeführt werden.

image 

Microsoft hat die Unendlichkeit berechnet. Das Ergebnis lautet…

Infinity

Webseiten, Produkte und Tools, die jeder VBA-Entwickler kennen sollte

VBA steht für Visual Basic for Applications. Im Grunde genommen kennt nahezu jeder Softwareentwickler diese Programmiersprache, die ihren Ursprung in den Office-Produkten hat. Denn hier kommt sie i.d.R. zum Einsatz: Outlook, Word und Excel. Hier wird am meisten automatisiert, bis der Arzt kommt.

Während unserer Meinung nach VBA eine große Flexibilität bietet, sehen wir uns aber oft einer eher negativen Einstellung gegenüber VBA ausgesetzt.

Die Gründe lassen sich einfach auflisten:

  • Kein besonders intelligentes IntelliSense
  • Keine Anbindung an eine Quellcode-Verwaltung*
  • Kein Refactoring
  • Kein Exception-Handling
  • ...

Die Liste ist noch viel länger, aber eines wird schnell klar: VBA ist kein C# und VBE (Visual Basic Editor) ist kein Visual Studio. Allerdings ergeben sich so auch Vorteile: Fachabteilungen können zumeist eigene Herausforderungen schnell und flexibel lösen (ohne von der IT oder der Entwicklungsabteilung abhängig zu sein). Es werden keine zusätzlichen Lizenzen für Entwicklungsumgebungen benötigt, da alles, was man braucht, in Office integriert ist (inkl. der Laufzeitumgebung). Installationssysteme sind nicht notwendig, da der Code Bestandteil der jeweiligen Dokumente ist. Natürlich empfinden wir die Nachteile (siehe oben) aber auch als problematisch.

Um sie im Vergleich zu modernen Programmiersprachen und Entwicklungsumgebungen ein wenig auszugleichen, hat der an Qualität interessierte VBA-Entwickler nichts desto trotz Zugriff auf einen reichhaltigen Fundus an Know-How und Erweiterungen.

Dieser Artikel listet einige davon auf (und erfüllt natürlich nicht den Anspruch auf Vollständigkeit; Ergänzungen werden gerne gesehen > Ab damit in die Kommentare!).  

MZ-Tools

MZ-Tools ist der Platzhirsch unter den Anbietern von (u.a.) VBA-Erweiterungen. Der Anbieter selbst spricht von Funktionen, die einen schneller Ergebnisse erzielen lassen, besser Code wiederzufinden, besser Oberflächen zu gestalten, einfach Dokumentationen zu generieren, u.v.m.

Link zur Website

Rubber Duck

Hierbei handelt es sich um ein ambitioniertes Open Source Projekt, das sich anschickt, den Visual Basic Editor ins 21. Jahrhundert zu katapultieren. Auch in dieser Erweiterung finden sich Funktionen wie z.B. ein integriertes Refactoring und eine regelbasierte Überprüfung der Code Qualität. Die Besonderheit von Rubber Duck: Ab Version 2.0 ist eine Anbindung von Git als Quellcode Verwaltung vorgesehen! Übrigens: Rubber Duck beinhaltet auch einen Testrunner für VBA Unit-Tests. Kein Witz!

Link zur Website

Tipps und Tricks von Pearson Software Consulting

CPearson bietet eine unfassbar umfangreiche Liste an Tipps und Tricks im Umgang mit u.a. VBA an. Auch nur Ansatzweise darzustellen, was man hier alles lernen kann, würde den Artikel sprengen. Hier (für mich) zwei Perlen: "Implementing Interfaces in Class Modules" (ja, es geht noch immer um VBA!) und "Introduction to Classes".

Link zur Website

Excel Tips von J-Walk & Associates

Auch hier gibt es eine lange Liste von Tipps für Entwickler, kategorisiert nach VBA Functions, UserForms, CommandBars & Menus und General VBA. Auch für Benutzer finden sich hier zahlreiche Hinweise, die einem das Leben in zumindest Excel deutlich erleichtern.

Link zur Website

Excel-Formeln übersetzt

Zugegeben, hier geht es weniger um VBA direkt, als denn mehr um Excel. Da allerdings auch oft von VBA aus Excel-Dokumente automatisiert werden, kann es manchmal hilfreich sein, Zugriff auf eine Übersetzungstabelle für Excel-Formeln zu haben. Wer also schon oft mit einem SVERWEIS gearbeitet hat, weiß nun, dass der englische Begriff hierfür VLOOKUP lautet.

Linke zur Website

* Ausgenommen Microsoft Access bis - ich glaube - Version 2010. Hier gab es früher eine Integration des MSSCCI Providers für die Anbindung an z.B. Visual Source Safe oder den TFS. Allerdings hat diese Funktion nicht bis heute überlebt und wurde auch nur selten genutzt.

 

Wie eine Attribute-Level Remediation in OIA funktioniert…

… wissen wir leider auch nicht.

Das heißt: Eigentlich schon. Aber es ist nicht gerade so, dass die Funktion besonders sinnvoll erscheint. Doch was ist damit eigentlich gemeint?

In Oracle Identity Analytics werden Daten vereinfacht gesagt wie folgt strukturiert:

image

 

Es gibt also globale Benutzer (darunter versteht der OIA Identitäten, also reale Menschen) und darunter Accounts. Sprich: Ein Mensch kann über mehrere Accounts (z.B. Anmeldekonten) verfügen. Jedem Account können mehrere Attribute zugewiesen sein, die den Account besser beschreiben. Dabei können Attribute auch verschachtelt werden. Beispielsweise ist es so möglich, folgendes abzubilden:

Global User > Account > Group Membership > Folder Permissions

In diesem Fall kann also ein Mitarbeiter über einen Account verfügen, der Mitglied in verschiedenen Gruppen ist, wobei jede Gruppe über spezifische Verzeichnisberechtigungen in irgendwelchen Netzwerk-Shares verfügt.

Attribute-Level Remediation

Unter Remediation versteht man in der Welt des OIA die Notwendigkeit von Korrekturen, die immer dann anstehen sollten, wenn eine IST-Situation von einem SOLL abweicht. Hat ein Mitarbeiter z.B. das Unternehmen verlassen, sein Account existiert aber nach wie vor im Active Directory, müsste bei einer Identity Certification genau das herauskommen: Der Zertifizierer bekommt den Mitarbeiter vorgelegt und lehnt ihn direkt ab (disclaim). Der OIA erkennt den Unterschied und führt den Benutzer der Korrekturverfolgung zu (Remediation Tracking).

Was aber, wenn nicht der Benutzer (bzw. die Identität oder wie der OIA sagen würde: der Global User), und auch nicht in dem Sinne dessen Account, sondern stattdessen Gruppenmitgliedschaften zertifiziert werden sollen – bzw. korrigiert werden sollen, falls IST und SOLL voneinander abweichen?

Dann ließe sich das – nach offizieller Aussage – mittels der Data Owner Certification abbilden. Neben der Benutzer-, Rollen- und Ressourcenbasierenden Zertifizierung ist das die Nummer vier im Bunde:

image

 

In dieser Art der Zertifizierung ließe sich nämlich auf Ebene der Attribute arbeiten. Dazu werden einfach die gewünschten Attribute ausgewählt:

image

 

Doch nun kommt der Pferdefuß: Wie bei allen anderen Zertifizierungstypen auch muss natürlich noch die Frage beantwortet werden, wer denn nun die Zertifizierung ausführen soll. Bei einer Identitätsbasierenden Zertifizierung kann das z.B. der Manager der jeweiligen Ressource sein, oder aber der Manager der jeweiligen Abteilung.

Bei der Data Owner Zertifizierung kann entweder nur ein einziger Mitarbeiter dazu auserkoren werden, oder aber – hence the name – der jeweilige Data Owner. Ein einziger Mitarbeiter wäre in den meisten aller Fälle unsinnig. Denn der müsste dann ja die entsprechenden Attribute aller Mitarbeiter des Unternehmens zertifizieren. Und in der Annahme, dass nur Großunternehmen ein Produkt wie den OIA einsetzen, gehe ich davon aus, dass einen Mitarbeiter mit dem Thema zu beschäftigen vermutlich gegen das Arbeitsschutzgesetz verstößt (oder wird Folter hier nicht berücksichtigt?).

Data Owner

Wer ist denn nun also der Data Owner?

Die Ressourcenansicht zeigt: Jedes einzelne Attribut an jedem einzelnen Account hat einen eigenen Data Owner:

image

 

Interessanter Fact am Rande: Die Frage danach ob es Sinn ergibt oder nicht mal beiseite gestellt, lassen sich Data Owner über die OIA Oberfläche hinzufügen. Die Sache ist nur die: Man kann sie nicht wieder entfernen (nur ein Hinweis, falls es jemand versuchen sollte).

Da aber auch hier ein gewissen Mengenproblem dem Tatendrang die Motivationsgrundlage entzieht, stellt sich also eher die Frage, ob sich der Data Owner beim Importieren der Accounts setzen lässt. Einen pfiffigen BI-Experten mit Kenntnissen in der Bedienung eines modernen ETL Tools vorausgesetzt wäre das doch die Lösung. Richtig?

Falsch. Denn der Data Owner lässt sich eben nicht automatisiert importieren.

Ende der Geschichte.

Falls jemand dazu andere Informationen vorliegen hat, oder einen Weg kennt, das Problem zu lösen, freue ich mich über einen Kommentar. Anderenfalls greife ich es vielleicht noch einmal auf, sollten wir selbst dazu eine Lösung finden (mir schwebt hier die Implementierung eines benutzerdefinierten Post-AccountImport Jobs vor – ähnlich den MaintenanceJobs und einer konfigurierbaren Zuordnung zwischen Attribute-Values und Data Ownern).

Microsoft goes Linux und ich installiere Oracle Identity Analytics auf einem Windows Server

Zugegeben, die Idee, den OIA auf einem Windows Server zu installieren klingt zunächst einmal hanebüchen. Warum sollte man so etwas tun? Nun, ganz einfach: 1. Weil es sich bei dem OIA um nicht mehr und nicht weniger als eine Web-Anwendung handelt, der es egal sein sollte, auf welchem Betriebssystem sie gehostet wird und 2. Weil es dem OIA tatsächlich egal ist, auf welchem Betriebssystem es gehostet wird.

Außerdem bewege ich mich leichtfüßiger in der Microsoft-Welt im Vergleich zu bspw. Oracle Linux.

Hintergrund ist aber eigentlich das Bedürfnis, völlig frei und unabhängig mit dem OIA experimentieren zu können. Wie lässt sich die Anwendung customizen? Wie können hierarchische Daten importiert werden? Wie funktioniert eine sog. "Open Loop Remediation" und was muss man dazu in der Konfiguration beachten?

Kundenserver haben die Angewohnheit, meist von anderen administriert zu werden. Auf meinem eigenen Hyper-V Windows Server kann ich aber schalten und walten, wie es mir gefällt, Checkpoints erstellen, Daten in den OIA importieren, wieder löschen, Identitäten anlegen, Zertifizierungen nur zum Test durchführen, eigene Java Beans für die Integration OIA-fremder ETL Tools einbauen (und sie wieder ausbauen, weil das vermutlich nicht funktionieren wird), etc. pp.

Und wer denkt, für den Oracle Identity Analytics Server bräuchte es Oracle Experten, um ihn zu installieren, der irrt. Zumindest unter Windows sind die notwendigen Schritte für eine einfache Basis-Installation nicht schwer. Die "Setup-Experience" unterscheidet sich zwar spürbar von der Installation gewohnter Microsoft-Produkte, aber wenn man bestimmte Dinge beachtet, funktioniert alles reibungslos:

  • Installation von Windows Server 2008 R2
  • Installation von Oracle Database 11
  • Einrichten einer Datenbank (rbacx) und Erstellen eines Benutzers (rbacxservice)
  • Vorbereitung der OIA Installation
  • Erstellen des OIA Datenbankschemas
  • Installation des WebLogic Applicationservers
  • Einrichten einer WLS Domain (rbacx)
  • Deployment der OIA Anwendung

Auf dem Weg zur funktionierenden OIA Installation müssen verschiedene Dinge beachtet werden. Einige Konfigurationsdateien beispielsweise verlangen eine Umgebungsvariable, die am sinnvollsten als Systemvariable eingerichtet wird (sonst läuft schon mal gar nichts). Gemeint ist übrigens RBACX_HOME. Das steht aber im Prinzip bereits in der Installationsanleitung. Außerdem wird ein Windows-Administrator bei dem Gedanken schmunzeln, dass so etwas Triviales wie ein Datenbank-Treiber separat heruntergeladen und eingebunden werden muss (ojdbc). Interessant wird es bei Dritt-Abhängigkeiten wie z.B. Jasper-Reports oder CloverETL.

Ersteres ist die OSS Reporting Engine, deren korrekte Version nicht mehr da zu finden ist, wo die Anleitung es behauptet. Selbiges gilt für CloverETL. Die Idee dahinter ist eigentlich pfiffig: Der OIA integriert die Open Source ETL Engine, so dass Transformationen von Quelldaten vor dem eigentlichen Import in den OIA vom OIA selbst automatisiert durchgeführt werden können. Der Haken daran ist lediglich, dass es sich um die so ziemlich älteste Version der Engine handelt, die es gibt: Sie stammt von 2006 und nach zwei Akquisitionen hat es der aktuelle Rechteinhaber Oracle nicht geschafft, das Thema zu aktualisieren (zuvor hieß der OIA noch Sun Role Manager und davor hieß es Vaau RBACx). Unglücklicherweise gibt es die alte Clover GUI nicht mehr, die mit CTL1 in der Lage war, OIA kompatible ETL-Graphen zu erzeugen. Da die in den OIA integrierte CloverETL Engine nicht mit CTL2 kompatibel ist, hilft einem der aktuelle CloverETL Designer auch nicht weiter. Mal abgesehen davon, dass die Anschaffung mit nicht unerheblichen Lizenzkosten verbunden ist.

Es wäre für mich mal interessant zu erfahren, wie andere Unternehmen damit umgehen. Irgendwie müssen die Daten ja vorverarbeitet und qualifiziert werden. Mit Microsoft SSIS? Mit Talend Open Studio? Mit Informatica PowerCenter? Und wie wird das jeweilige Produkt in den OIA Workflow eingebunden?

Mehr dazu vielleicht ein anderes Mal.

Über die Autoren

Christian Jacob ist Leiter des Geschäftsbereiches Softwarearchitektur und -entwicklung und zieht als Trainer im Kontext der .NET Entwicklung sowie ALM-Themen Projekte auf links.

Marcus Jacob fokussiert sich auf die Entwicklung von Office-Addins sowie Windows Phone Apps und gilt bei uns als der Bezwinger von Windows Installer Xml.

Martin Kratsch engagiert sich für das Thema Projektmanagement mit dem Team Foundation Server und bringt mit seinen Java- und iOS-Kenntnissen Farbe in unser ansonsten von .NET geprägtes Team.

Aktuelle Kommentare

Comment RSS