Upload
dangthu
View
220
Download
2
Embed Size (px)
Citation preview
Wie sich kleine RE-Toolhersteller gegen die „Großen“ der Branche in
einer Toolauswahl geschlagen haben
David gegen Goliath
1
WAS SIE HEUTE VON UNS MITNEHMEN KÖNNEN?
2
Unsere Argumente und Erfahrungen,
warum Demos, Feature-Kataloge und Lizenzkosten
nicht genug für eine akzeptierte Tool-Entscheidung sind.
WIE KAMEN WIR ÜBERHAUPT ZUR TOOLAUSWAHL?
3
Anforderungen verbessern
Arbeitsmodell und Informationsmodell
findenTool auswählen
ArbeitsmodellPhilosophie
WELCHE PHILOSOPHIE HABEN WIR VERFOLGT?
4
Arbeit an operativen Inhalten
Anforderungen und Testfälle in einem Schritt definieren
Gemeinsames Verständnis schaffen
Alle Beteiligten sitzen an einem Tisch, direkte Kommunikation
Nutzen muss sichtbar werden
GRUNDLAGE: EIN ERPROBTES ARBEITSMODELL
5
Beteiligteo Fachbereicho IT4IPM, Lieferanten
Zusammenarbeito Direkte Kommunikationo Gemeinsames Verständnis
Ergebnisseo Einzelne Anforderungen
mit referenzierten Testfälleno nur in einer gültigen Version
Arbeitsumgebungo Gemeinsam und zentralo Schreibender Zugriff
Anforderung
Testfall
Kundenwunsch Neues Software-Release
Anforderungen gemeinsam erarbeiten
WELCHE RAHMENBEDINGUNGEN HATTEN WIR?
6
GEMA und IT4IPM als zwei Organisationen
Toolauswahl in 6 Monaten
Softwareentwicklung in Projekt- und Linien-Organisation
Standorte in München und Berlin
WIE WOLLTEN WIR UNSERE ZIELE ERREICHEN?
7
Ergebnisse offen und transparent kommunizieren
Arbeitsmodell mit Projekten und Weiterentwicklungen verifizieren und ggf. anpassen
Tools zur Verwaltung von Anforderungen und Testfällen evaluieren und eine Toolempfehlung abgeben
ZielePrinzipien
Betroffene zu Beteiligten machen(für eine hohe Akzeptanz, Anwender frühzeitig und intensiv einbeziehen)
§ §§
WER WAR BETEILIGT?
8
Architektur (2)
Fachbereich (17)
Service Management (2)
Test Management (2)
Kernteam (2+2)
Management (5)
Management (7)
Entwicklung (5)
22 Beteiligte
20 Beteiligte
IT-Betrieb (2)
Einkauf (1)
WIE SIND WIR VORGEGANGEN?
9
Kernteam
Longlist (9) erstellen
IT4IPM & GEMA
Shortlist (4) erstellen
IT4IPM & GEMA
Tooldemos durchführen
IT4IPM & GEMAPiloten
IT4IPM & GEMAPiloten
Pilotierungendurchführen
Kernteam & GEMA
Funktions-Kriterien bewerten Kernteam
Empfehlung erarbeitenIT4IPM & GEMA
ManagementIT4IPM & GEMA
Management
Kriterien-WS durchführen
IT4IPM
Integration EA, Cherwell, QC
Piloten-WS durchführen
Mgmt-Kriterien bewerten
BeteiligteKernteam: Kundenmanagement IT4IPM, HOODPiloten: Projekt- und WeiterentwicklungsteamsManagement: CEO, IT-Einkauf, IT-Betrieb, IT-Entwicklung, IT-Strategie, GEMA
WOHER KAM DIE LONGLIST?
10
Verfügbare Tools bei der IT4IPM und GEMA
Tool-Workshop auf der REConf 2016 (110 Anbieter)
Gartner Studien etc.
Tool Anbieter
DOORS Next IBM
Polarion Polarion
EnterpriseArchitect
Sparx
Jama Jama
ObjectIF RPM MicroTool
JIRA / R4J Atlassian / easeSolution (3rd party)
RM Dimensions SERENA
HP ALM HP
TFS / SmartWord Microsoft / eDEV (3rd party)
Quellen Ergebnis: LonglistKernteam
WIE WURDEN DIE TOOLS VORGESTELLT?
11
Basis für die Demos Einzelbewertung3 h
Grund-Funktionen
Szenarien
Informations-Modell
Kernteam,
IT-Betrieb,GEMA
WIE WURDE DIE LONGLIST ZUR SHORTLIST?
12
1. Reflektion und Selbsteinschätzung aller Tools
2. Identifikation der zwei schwächsten Tools (8+9)
3. Identifikation der zwei besten Tools (1+2)
4. Ranking der übrigen 5 Tools (3-7)Rang Anbieter
1 Serena
2 Jama
3 Microsoft / eDev (3rd party)
4 Atlassian / ease Solutions (3rd party)
5-9
Polarion
HP
IBM
MicroTool
Sparx
Konsensentscheidung
GemeinsamerWorkshop
in Berlin
WIE WAREN DIE ANWENDER BETEILIGT?
13
Usability der Tools im operativen Geschäft durch Anwender bewerten
Ziel
Arbeitsmodell
• insgesamt ca. 25 Mitarbeiter• 2 Teams - Neuentwicklung (Projekt)• 4 Teams - Weiterentwicklung (Linie)
6 Pilotprojekte
• Zeit für Toolevaluierung• Operative Themen• Offenheit und Motivation
Rahmenbedingungen
Praktischen Tooleinsatz• Pro Team, ein Tool• Operativen Einsatz
Workshops
• Pro Team ca. 7 Workshops
RE-Methodik
• Formulierung• Verschiedene Notationen• Qualitätskriterien
WIE BEKAMEN WIR DAS ANWENDER-FEEDBACK?
14
Einzelbewertung des eigenen Tools
(Szenarien)
Gruppenbewertung der anderen Tool*
(Szenarien)
Einzelbewertung aller Tools durch Ranking
Bewertungsteil 1 Bewertungsteil 2 Bewertungsteil 3
Im gemeinsamen Piloten-WorkshopAm Ende der Pilotierung
* Hinweis zu Microsoft TFS/eDev: eDev (SmartWord4TFS) war nicht lauffähig und somit war weder eine Pilotierung noch ein Experten-Review (durch Kernteam) möglich. Der Anbieter scheidet aus diesem Grund aus.
WIE HABEN DIE ANWENDER BEWERTET?
15
Einzelbewertung des eigenen Tools
(Szenarien)
Gruppenbewertung der anderen Tool
(Szenarien)
Einzelbewertung aller Tools durch
Ranking
Gesamtnote
Bewertungsteil 1 Bewertungsteil 2 Bewertungsteil 3
Note x 3Note x 2Note x 1
WIE HABEN WIR DAS MANAGEMENT INVOLVIERT?
16
Ausschreibung Einzelbewertung KonsensentscheidungManagement-Kriterien
1 2 3 4
GAB ES KEINEN FEATURE KATALOG?
17
Kernteam,
GEMA
• Testfällen (18)
• Review (10)
• bewerteten Antworten von den Herstellern (7)
• der Szenarien durch die Bewertung der Pilotteams (8)
43 Anforderungen wurden parallel in allen drei Tools bewertet durch:
Feature Katalog
WIE WURDEN SCHNITTSTELLEN BERÜCKSICHTIG?
18
ArchitekturService Management Test
WIE WICHTIG WAR SUPPORT UND CUSTOMIZING?
19
Bewertungskriterium
1 Bereitstellung von Pilotlizenzen
Support
2 Unterstützung bei der initialen Konfiguration
3Qualität und Geschwindigkeit bei der Beantwortung von Rückfragen
4Qualität der erhaltenen Ausschreibungsunterlagen vom Hersteller
5Erbringung der Leistungen in der Pilotphase durch den Hersteller
6Möglichkeiten der Konfiguration durch das BRM Team hinsichtlich Anlage von Usern, Artefakten, Feldern, Projekten, usw.
Admini-stration
WIE ENTSTAND DIE GESAMTBEWERTUNG?
20
Anwender-Bewertung
Funktions-Bewertung
Management-Bewertung
Administration/Support
Gesamt-bewertung
x3
x2
x2
x1
GewichtungPilotprojekte
Kernteam
Kernteam, GEMA
Management -Team
Tool-Empfehlung
WELCHES TOOL BEKAM DIE BESTE NOTE?
21
1,73
1,97
2,75
1,00
1,50
2,00
2,50
3,00
ease Jama Serena
WAS HABEN WIR EMPFOHLEN?
22
Risiken
• Mehraufwand und mögliche Inkonsistenzen durch hohe Freiheitsgrade
• Keine Systemsicht, wenn Rückfall in alte, unerwünschte Arbeitsweisen
Chancen• Hohe Anwenderakzeptanz
• Großes Angebot von 3rd Party Herstellern
Risiken
• Hohe Lizenzkosten, da Jama-Lizenzen inklusive der Task-Top Lizenzen
angeboten werden
Chancen
• Gute Chancen für Änderungswünsche am Tool
• Genaue Umsetzung des Informationsmodells
• Bevorzugtes Tool der Pilotanwender
• Kostengünstigste Variante, sowohl alleine betrachtet als auch mit Schnittstellen an EA und HP QC inklusive
Hauptsächliche Gründe hierfür
WAS HABEN WIR GELERNT?
23
ABER… nur direkte Kommunikation und
Zusammenarbeit verbessert die Ergebnisse.Eine gute Usability ist entscheidend für die Akzeptanz der Anwender …
ABER… nur wenn die Arbeit der Teams unterstützt wird, sinken Entwicklungskosten signifikant.
Lizenz- und Betriebskosten lassen sich gut Vergleichen und Bewerten …
ABER… erst im Vergleich mit anderen Tools
wird die Bewertung aussagekräftig.Die Toolbewertung durch aktive Nutzung der Anwender ist sehr wertvoll …
ABER… es sagt wenig darüber,
wie man mit dem Tool arbeiten kann.Tooldemos liefern viele Informationen über die Funktionalitäten der Tools …
ABER… die beste Schnittstelle
ist KEINE Schnittstelle.Eine einfache Toolintegration erleichtert das Zusammenspiel der Systeme …
WELCHE FRAGEN HABEN SIE?
24
WIE FINDEN SIE UNS?
25
Malin Winterhalder
Business Relationship Managerin
Jens Donig
Principal Consultant