# Pytania kierunkowe **1. Parametry opisu warunków ruchowych i ich wpływ na jakość pracy w systemach kolejkowych. (Badania operacyjne − J. Konorski)** Jakość pracy w systemach kolejkowych mierzymy następującymi parametrami opisu warunków ruchowych: *alfa* - liczba zgłoszeń napływających do systemu obsługi w jednostce czasu; *mi* - liczba zgłoszeń obsługiwanych w ustalonej jednostce czasu; *ro* (stała Erlanga) - stosunek średniej liczby zgłoszeń jaka napływa do systemu w jednostce czasu do średniej liczby zgłoszeń jaka może być obsłużone w jednostce czasu Na podstawie tych danych możemy określić, że jeśli: - ro jest mniejsze od 1, to system jest stabilny; - ro jest równe 1, to system jest na granicy stabilności; - ro jest większe od 1, to system jest niestabilny **2. Markowowskie modele systemów masowej obsługi i ich zastosowania. (Badania operacyjne − J. Konorski)** Własność Markowa - losowe pobudzenie zewnętrzne w chwili t jest na ogół zależne od bieżącego stanu, jednak niezależne od stanów wcześniejszych. Notacja Kendalla: A/B/S/Q/J/Z A - zmienna losowa interwał B - zmienna losowa wymaganie S - liczba procesorów Q - pojemność bufora J - rozmiar populacji źródła zgłoszeń Z - regulamin kolejki Typy rozkładów: - M - wykładniczy - D - deterministyczny - G - ogólny Możemy określić następujące modele systemów masowej obsługi (w notacji Kendalla): - M/M/1 - rozkład czasu pomiędzy zgłoszeniami oraz rozkład czasu obsługi pojedynczego zgłoszenia są rozkładami wykładniczymi (1 stanowisko obsługi i nieskończenie duża kolejka); - M/M/1/Q - to samo co M/M/1 ale z ograniczeniem wielkości pamięci buforowej; - M/M/S - nieskończenie wiele zgłoszeń i nieskończenie wiele punktów obsługi; - M/M/S//J - strumienie zgłoszeń są generowane przez podaną liczbę końcówek o określonej charakterystyce, reszta jak w M/M/S; - M/M/S/S - to samo co M/M/S, ale bez bufora, czyli jeśli procesory są zajęte, to zgłoszenie jest odrzucane; - M/M/nieskończoność - wszyscy są obsługiwani od razu, bo jest nieskończona liczba stanowisk obsługi **3. Podać definicję i zastosowania modelu programowania liniowego. (Badania operacyjne − P. Obszarski)** Programowanie liniowe to klasa problemów programowania matematycznego, w której wszystkie warunki ograniczające oraz funkcja celu mają postać liniową. Programowanie liniowe znalazło szerokie zastosowanie w teorii decyzji, np. do optymalizacji planu produkcyjnego. Wiele problemów optymalizacyjnych znajduje rozwiązanie poprzez sprowadzenie ich do postaci problemu programowania liniowego. **4. Klasyfikacja zagadnień szeregowania zadań (Badania operacyjne − K. Giaro)** Zadania możemy sklasyfikować następująco: - podzielne, - niepodzielne, - zależne, - niezależne. Jednocześnie warto rozróżnić procesory obsługujące te zadania: - procesory równoległe (każdy procesor może obsłużyć każde zadanie), - procesory identyczne (wszystkie są jednakowo szybkie), - procesory jednorodne (mają różne szybkości, ale stosunki czasów wykonywania zadań są niezależne od maszyn), - procesory dowolne (prędkości zależą od wykonywanych zadań), - procesory dedykowane. Szeregowanie statyczne - posiadamy wszystkie informacje przed, właściwości i kolejnosc zadań mozna określić przed , wtedy szeregowanie zadań planujemy tez przed Szeregowanie dynamiczne - częściej spotykane w rzeczywistości, uwzględnia zmiany w trakcie realizacji zadań i ewentualne niewiadome przed rozpoczęciem szeregowania zadań **5. Wyjaśnij jak wygląda typowe przyspieszenie obliczeń w aplikacjach równoległych i od czego zależy. (Systemy obliczeniowe wysokiej wydajności − P. Czarnul)** Dla aplikacji równoległych szczególne znaczenie ma przyspieszenie mierzone jako stosunek czasu wykonania aplikacji na systemie jednoprocesorowym do czasu wykonania na systemie złożonym z N procesorów. W zależności od infrastruktury komunikacyjnej jak i cech poszczególnych aplikacji: - aplikacji bez (lub z bardzo małymi) zależnościami pomiędzy zadaniami wykonywanymi przez różne procesy -> S zbliżone do N; - aplikacje z komunikacją między procesami -> przyspieszenie może być modelowane jako S(N) zbliżone do 1/(A + B/N), gdzie A i B są stałymi zależnymi od stosunku czasu obliczeń do komunikacji oraz samego czasu komunikacji; - aplikacje dziel-i-zwyciężaj - w zależności od czasu, który wymagany jest przez węzły na różnych poziomach drzewa operacji, przyśpieszenie może się różnić, zakładając ten sam czas obliczeń w każdym węźle otrzymujemy -> S(N) = O(N/log(N)) **6. Wyjaśnij na czym polega nakładanie obliczeń i komunikacji. W jaki sposób może zostać zrealizowane z wykorzystaniem implementacji MPI - Message Passing Interface? (Systemy obliczeniowe wysokiej wydajności − P. Czarnul)** Message Passing Interface umożliwia przesyłanie komunikatów pomiędzy równoległymi procesami. Może to być ważne np. przy realizacji programu w paradygmacie SPMD, gdzie poszczególne porcje danych mają informacje brzegowe, które mogą się zazębiać i na siebie wpływać. Przykład programu, gdzie taki mechanizm może być przydatny: ![](https://i.imgur.com/f4KwTHz.png) **7. Wymień podstawowe paradygmaty przetwarzania, które mogą być wykorzystywane przez aplikacje równoległe. (Systemy obliczeniowe wysokiej wydajności − P. Czarnul)** Możemy wymienić cztery główne paradygmaty przetwarzania aplikacji równoległych: - Master - Slave (proces master przydziela dane procesom slave, które zwracają później dane do mastera), - Jeden program - wiele danych (SPMD - procesy wykonują te same obliczenia na różnych danych wejściowych), - Przetwarzanie potokowe (wyróżnia kilka operacji, które po kolei są wykonywane na porcjach danych. Przy dużej liczbie fragmentów danych, możliwe jest równoległe wykonywanie różnych operacji na różnych porcjach danych., - Dziel i zwyciężaj (początkowy problem dzielony jest na podproblemy, które mogą być rozwiązywane rekurencyjnie, a następnie są one scalane i propagowane w stronę korzenia - to bardzo trudne do realizacji). **8. Omówić podstawowe założenia i cele ministerialnego programu "Polska Cyfrowa 2014- 2020" (Technologie Społeczeństwa Informacyjnego − P. Brudło)** Celem programu Polska Cyfrowa 2014-2020 jest wykorzystanie potencjału cyfrowego do poprawy jakości życia w kraju. Cele: - Powszechny dostęp do Internetu, - E-administracja i otwarty rząd, - Cyfrowa aktywizacja społeczeństwa, - Pomoc techniczna. Założenia: - Informatyzacja, - Rozwój telewizji cyfrowej, - Dostępność Internetu wszędzie, - dotacje unijne na usługi elektroniczne, - digitalizacja zasobów. **9. Scharakteryzować sektorowo zastosowanie technologii informatycznych i teleinformatycznych w projektach dla społeczeństwa informacyjnego (Technologie Społeczeństwa Informacyjnego − P. Brudło)** Można wyróżnić następujące sektory: - e-Administracja, - e-Biznes, - e-Edukacja, - e-Zdrowie, - e-Dostępność, - e-Bankowość **10. Jakimi cechami charakteryzują się dobre generatory programowe? (Modelowanie i symulacja systemów − R. Janczewski)** Od dobrych generatorów programowych należy oczekiwać: - generowania liczb, które mają rozkład jak najbardziej zbliżony do założonego, - podciągi generowanego ciągu powinny być wzajemnie niezależne, - długiego okresu, co najmniej rzędu pierwiastek z n, gdzie n jest długością ciągu wykorzystywanego w obliczeniach, - możliwości dokonania przeskoku (czyli obliczenia x+1,2….na podstawie x), - nieprzewidywalności wyników dla osób postronnych **11. Omów klasyfikację modeli matematycznych. (Modelowanie i symulacja systemów − R. Janczewski)** W zależności od tego, co chcemy uzyskać, może powstać model: - probabilistyczny, oparty na rachunku prawdopodobieństwa (np. opisujący dziedziczenie), - dyskretny, mający postać równań rekurencyjnych (np. rozrost populacji) - Możliwe są inne modele, oparte np. o teorię grafów czy też modele mieszane. Inna klasyfikacja: - Liniowy / nieliniowy (w liniowych wszystko określane jest liniowo) - Statyczny / dynamiczny (w modelach statycznych nie uwzględnia się czasu) - Dedukcyjny / empiryczny (powstają na podstawie teorii opisującej zjawisko, empiryczne na podstawie jego obserwacji) **12. Omów własności liniowego generatora kongruencyjnego. (Modelowanie i symulacja systemów − R. Janczewski)** Liniowy generator kongruencyjny to jeden z najstarszych i najprostszych generatorów liczb losowych. Wzór na kolejne liczby za jego pomocą to LCG(n+1) = aLCG + c(mod m). - Jest najbardziej efektywny, gdy m jest potęgą dwójki. - Nie nadaje się do zastosowań kryptograficznych. - Znając m można odtworzyć a i c na podstawie trzech kolejnych liczb generowanych przez LCG. - LCG jest bardzo szybki, a jego wewnętrzny stan zajmuje bardzo mało miejsca w pamięci. - Jest zaimplementowany w wielu rozwiązaniach, np. Java's java.util.Random (48-bitowy generator). **13. Podaj własności funkcji autokorelacji sygnału skończonego w czasie oraz przykład jej zastosowania w analizie szeregów czasowych. (Podstawy analizy rynków kapitałowych − A. Dyka)** Podstawowym zastosowaniem autokorelacji jest wyszukiwanie okresowości w sygnale. Jeżeli sygnał jest idealnie okresowy, to maksima funkcji będą znajdowały się w punktach równych wielokrotności okresu. W kontekście rynków kapitałowych, analizowana jest autokorelacja krótkoterminowych stóp zwrotu, co jest jednym z elementów analizy technicznej. Analiza techniczna opiera się między innymi na założeniu, że na rynku występują trendy, co jest sprzeczne z hipotezą losowego procesu stanowienia cen. W procesie losowym kolejne obserwacje nie są w żaden sposób powiązane z poprzednimi, natomiast występowanie trendów zakłada, że skoro wczoraj rynek spadał to dziś prawdopodobieństwo, że będzie spadał jest większe niż, że odnotuje wzrost. To właśnie zjawisko nosi nazwę dodatniej autokorelacji krótkoterminowych stóp zwrotu. Analiza techniczna jest najbardziej popularnym podejściem do spekulacji. Pomimo jej popularności często można spotkać się z głosami mówiącymi o jej nieużyteczności. Dodatkowo dodatnia autokorelacja dotyczy krótkoterminowych stóp zwrotu – stopy długoterminowe wykazują ujemną autokorelację (co również jest argumentem przeciwko teorii rynków efektywnych). Ujemna autokorelacja oznacza, że ceny w długim okresie cechują się tzw. regresją do średniej. Oznacza to, że jeśli przez kilka lat ceny np. grupy akcji charakteryzują się ponadprzeciętną stopą zwrotu to ze zwiększonym prawdopodobieństwem w następnych latach te same akcje będą notowały niższe stopy zwrotu w porównaniu do całości rynku **14. Scharakteryzuj zjawisko konwergencji w kontekście globalnej infrastruktury informacyjnej. (Globalna infrastruktura informacyjna − T. Gierszewski)** Konwergencja w kontekście globalnej infrastruktury informacyjnej jest adaptacją techniki jednego rodzaju do pełnienia funkcji techniki drugiego rodzaju. W informatyce określa się tak upodabnianie się urządzeń, które zaczynają pełnić podobną funkcję. Przykład konwergencji w kontekście pytania - oprogramowanie Skype (i wszelkie inne voice-over-IP) z wykorzystaniem Internetu przejmuje rolę telefonu wykorzystującego sieć telefoniczną. Analogicznie można wskazać usługi takie jak Netflix czy YouTube, zastępujące telewizję. **15. Przedstaw i porównaj protokoły Diameter oraz RADIUS w kontekście globalnej infrastruktury informacyjnej. (Globalna infrastruktura informacyjna − T. Gierszewski)** Protokół Diameter wyewoluował z protokołu Radius - sama nazwa to jest gra słów (średnica to dwa razy promień). Protokół Diameter jest protokołem autentykacji, autoryzacji i księgowania/logowania. Główne różnice w stosunku do Radius to: - Wsparcie dla SCTP (w stosunku do tcp nie przesyłane są pakiety bitów, ale pakietów z ukształtowanymi wiadomościami) - Zdolność do negocjacji wymagań, - w ramach odkrywania sąsiedztwa obsługuje konfigurację dynamiczną poza samą statyczną jak w przypadku Radius, - Uwzględnia warstwę aplikacji, - Rozszerzalność (można definiować nowe komendy), - Obsługuję bezpieczeństwo w postaci End-to-End poza Hop-To-Hop (końcowe funkcje bezpieczeństwa są na węźle początkowym i końcowym, w hop-to-hop od węzła do węzła są różne rozwiązania) **16. Zestawianie pary sekwencji i wielu sekwencji biologicznych - definicje, sposoby oceny, aspekty algorytmiczne. (Elementy bioinformatyki − K. Giaro)** Sekwencja nukleotydów to ciąg par zasad. Każda para zasad to dwie komplementarne zasady azotowe nukleotydów dwóch różnych nici kwasu nukleinowego. Para zasad jest jednostką długości cząsteczek DNA, czyli długość cząsteczek DNA wyrażana jest liczbą par zasad. Bardzo wiele informacji o działaniu genów i enzymów dostarcza wykrywanie podobnych sekwencji. Fragmenty podobne są zwykle skorelowane ewolucyjnie, mają wspólny rodowód i pełnią zbliżone funkcje w organizmie. Białka o podobnej strukturze pierwszorzędowej przyjmują zbliżone konformacje przestrzenne. Krótsze odcinki o znanej sekwencji z długiej nici DNA można łączyć wspólnymi końcami w dłuższą mapę. W ramach sposobów oceny, z najważniejszych kwestii, określamy: - Odległość edycyjną, - Funkcję podobieństwa sekwencji, - Funkcję kary za przerwy w dopasowaniu. Słowa można tym lepiej dopasować im mniejsza jest odległość edycyjna między nimi. Z podobieństwem słów jest odwrotnie - im większe, tym lepsze dopasowanie jest możliwe. **17. Metody rekonstrukcji drzew filogenetycznych (Elementy bioinformatyki − K. Giaro)** Drzewo filogenetyczne (inaczej drzewo rodowe) – graf acykliczny przedstawiający ewolucyjne zależności pomiędzy sekwencjami lub gatunkami wszystkich organizmów, podobnie jak pokrewieństwo w rodowodzie ludzkim obrazuje drzewo genealogiczne. Metody rekonstrukcji drzew: - metoda parsymonii tradycyjnej (przykład - algorytm fitcha), - metoda parsymonii ważonej (przykład - algorytm Sankoffa), - przeszukiwanie “drzewa drzew”. Do niedawna najczęściej stosowaną metodą rekonstrukcji drzewa filogenetycznych była parsymonia, czyli analiza odpowiadających sobie sekwencji biologicznych współczesnych gatunków. Założenie jest takie, że należy starać się tłumaczyć obecnie obserwowane fakty możliwie najprostszym scenariuszem zdarzeń przeszłych. W zakresie metody przeszukiwania drzewa drzew, ze względu na superwykładnicze tempo wzrostu liczby drzew w funkcji L, prosty, sekwencyjny przegląd wszystkich topologii jest wykonalny wyłącznie dla kilku gatunków. # Pytania specjalistyczne (ISI) **1. Metodyki zarządzania infrastrukturą informatyczną w organizacji (SI)** Przykładem takiej metodyki może być ITIL (Information Technology Infrastructure Library) - metody opracowana przez brytyjskie agencje rządowe jeszcze w latach 80. oraz rozwijana do dzisiaj. Jest to przykład metodyki odpowiedniej szczególnie dla dużych korporacji, a mniej dla małych i średnich przedsiębiorstw (co wykazywały badania MSG Services AG). Pierwszym kluczowym elementem ITIL jest system wartości usług ITIL, a drugim jest model czterowymiarowy. System wartości obejmuje 5 składników: 1. Łańcuch wartości usług ITL 2. Praktyki ITIL 3. Zasady przewodnie ITIL 4. Zarządzanie 5. Ciągłe doskonalenie usług Model czterowymiarowy: - Organizacja i ludzie - Informacja i technologia - Partnerzy i dostawcy - Strumienie wartości i procesy ITIL stanowi obszerny opis wielu praktyk w zakresie technologii informacyjnych tj. listy zadań do wykonania, procedur i obowiązków dostosowanych do potrzeb konkretnej organizacji. ITIL wyróżnia 6 faz cyklu życia aplikacji: 1. Wymagania - faza ta, polega na zbieraniu wymagań dotyczących danej aplikacji (np. za pomocą metody Epic). 2. Projektowanie - w tej fazie należy określić funkcje, które mają być realizowane przez aplikację w celu zaspokojenia wymagań biznesowych. 3. Wykonanie i testy - jest to budowanie aplikacji, jej testowanie oraz przygotowanie modelu operacyjnego dla aplikacji. 4. Wdrożenie - w fazie czwartej następuje wprowadzenie nowego modelu operacyjnego do istniejącego środowiska IT, a także przekazanie aplikacji użytkownikowi. 5. Użytkowanie aplikacji - to świadczenie usług z wykorzystaniem wdrożonej aplikacji. 6. Optymalizacji - polega na monitorowaniu i analizie wykorzystania aplikacji oraz określaniu co należy usprawnić. Innym przykładem metodyki zarządzania infrastrukturą informatyczną może być MOF (Microsoft Operation Framework). Jest to microsoftowy odpowiednik ITIL, który jest narzędziem pozwalającym osiągać stabilność, dostępność, zarządzalność i wspieralność rozwiązań opartych na usługach MSFT. MOF wiąże standard ITIL ze specyficznymi zaleceniami związanymi z produktami i technologiami MSFT. **2. Strategia w zakresie IT a strategia organizacji (SI)** Częstym problemem jest brak synergii (a często nawet brak jakiegokolwiek powiązania) pomiędzy strategią w zakresie IT a strategią danego podmiotu. W organizacjach klienckich często projekt IT jest wynikową konieczności posiadania danego systemu, bo bez niego nie ma szansy istnienia na rynku (np. bankowość elektroniczna). Strategia IT powinna być dopasowana do wybranego modelu firmy (customer intimate, operationally excellent, innovative) - wzmacniać firmę w obszarach jej głównej działalności lub doprowadzić ją do niezbędnego minimum w pozostałych obszarach. Trzeba się przestrzegać przed wydatkami na cele IT nie związanymi z działalnością. W opracowaniu strategii IT konieczne branie jest pod uwagę nie tylko kosztów stworzenia i wdrożenia infrastruktury, ale też jej utrzymania w świetle bieżącej działalności firmy (model TCO (Total Cost of Ownership)) **3. Dobór i planowanie inwestycji IT w organizacji (SI)** Można wskazać podejścia takie jak: - Informatyzacja w stylu wolnym W informatyzacji chaotycznej jest brak widocznego nurtu inwestycyjnego na poziomie kierownictwa organizacji oraz towarzyszący temu brak synchronizacji inicjatywy informatyzacji. Działania inicjowane są najczęściej w sposób przypadkowy i przez niekompetentne osoby. - Podejście mechaniczne polega na systematycznej automatyzacji funkcji biznesowych, co oznacza kolejne wdrażanie systemu komputerowego obsługującego księgowość, produkcję, magazyn, finanse, sprzedaż itp. Główną korzyścią, którą osiąga się w tym scenariuszu, jest integracja danych w ramach wdrożonych modułów wybranego systemu. - Podejście synergiczne ukierunkowane jest na usprawnienie procesów gospodarczych, tj. obniżkę kosztów, poprawę jakości, skrócenie cyklu obsługi podstawowych zdarzeń gospodarczych. Poprawia skuteczność codziennego działania organizacji. - Informatyzacja strategiczna - biznesowy punkt patrzenia na informatykę w organizacji Przy odpowiedzialnym doborze i planowaniu, należy mieć określone cele i obszary działania firmy, warto wykonać analizę SWOT oraz zaplanować odpowiednią strategię. **4. Ocena kosztów i przychodów projektów IT (SI)** W zakresie oceny kosztów, dobrym modelem jest TCO (Total Cost of Ownership). Jest to system klasyfikacji kosztów zawierający bogatą listę kategorii, uwzględniając koszty bezpośrednie jak i pośrednie (ukryte) TCO dzieli koszty na: - hardware i software, - zarządzanie, - wsparcie, - rozwój, - komunikację, - koszt użytkownika końcowego, - koszt przestojów. Wielkość kosztów pośrednich jest często miarą jakości wdrożonych systemów i pracyadministratorów. Korzyście generowane przez przychody: E1 = korzyści - koszty procesów biznesowych - kszty IT E0 < E1 -> dodatni efekt informatyzacji Przykłady: - system sprzedaży przez internet, - system wspomagający realizację zamówień, - wdrożenie systemu business inteligence. **5. Zagadnienia zarządzania komunikacją w projektach informatycznych (ZPI)** Cele: - ustanowienie znanych i adekwatnych zasad komunikacji wewnętrznej i zewnętrznej - ułatwienie angażowania interesariuszy (kontrolowany i dwukierunkowy przepływ informacji oraz pomost pomiędzy interesariuszami o różnych kulturach, wiedzy, perspektywie i interesach względem projektu) - zapewnienie efektywnego i adekwatnego planowania, zbierania, tworzenia, rozpowszechniania, przechowywania, udostępniania, zarządzania, kontroli i nadzorowania oraz niszczenia informacji w projekcie Komunikacja: - wewnętrzna - zewnętrzna - z interesariuszami Procesy w ramach zarządzania komunikacją: - planowanie (czy wiemy, kto czego potrzebuje, co skąd można uzyskać i jakie są kanały dystrybucji?) - zarządzanie komunikacją (od tworzenia, przez rozpowszechnianie i przechowywanie oraz udostępnianie, a kończą na niszczeniu informacji) - nadzorowanie (czy każdy interesariusz ma spełnione potrzeby informacyjne?) **6. Zarządzanie ryzykiem w projektach informatycznych (ZPI)** Ryzyko - niepewne zdarzenie, które w przypadku wystąpienia może mieć wpływ na osiągnięciecelów. Może być pozytywne / negatywne - zagrożenie i szansa Ekspozycja ryzyka - “rozmiar” ryzyka łączący możliwości wystąpienia i wpływ Bardzo ważna jest identyfikacja zagrożeń i szans. Możliwe techniki: - Lista kontrolna (na podstawie przebytych / gotowych projektów) - Sesje burzy mózgów ![](https://i.imgur.com/kIn86dI.png) **7. Problemy i metody planowania projektów informatycznych (ZPI)** Planowanie projektu IT: 1. Plany strategiczne 2. Założenia 3. Opis projektu / wstępny plan 4. Plan projektu 5. Plany etapowe Przydatne narzędzia: - diagram gantta - business model canvas Metody szacowania: - przez analogię - opinie ekspertów - przez przetarg - oddolnie - odgórnie Problemy: - problem z dopasowaniem harmonogramu do deadline'u - zmieniające się wymagania klienta - ograniczenia technologiczne - złożoność i niemateralność oprogrmaowania - zmiany tecnhologii - brak danych historycznych - brak przenośności doświadczeń projektowych - polityka może mieć wpływ ![](https://i.imgur.com/TQ1bcqA.png) **8. Rola i kompetencje kierownika w projektach informatycznych (ZPI)** Rola: - Koordynacja projektu, aby dostarczyć wymagany produkt końcowy - zgodnie z jego specyfikacją - w zgodzie z harmonogramem - oraz w limitach budżetowych - Kierownik projektu powoduje, że projekt “żyje” i rozwija się, animuje go Kompetencje: - zdolność do analizowania różnych wariantów rozwoju sytuacji - zdolność przystosowania się do zmieniającej się sytuacji - talent organizacyjny - efektywny planista - umie zarządzać zespołem - zdolność do rozpoznania potencjału podwładnych - umiejętność komunikowania się - kompetentny technicznie **9. Metody kreowania produktów IT i analizy rynku (ZPR)** Przykładem metody kreowania produktu IT jest design thinking - metoda tworzenia innowacyjnych produktów i usług w oparciu o zrozumienie problemów i potrzeb użytkowników - Zorientowane na użytkownika - Korzystanie z interdyscyplinarnego zespołu (patrzenie z wielu perspektyw) ![](https://i.imgur.com/PfHMMWp.png) Przydatną techniką w ramach tworzenia produktów IT jest prototypowanie. Dlaczego? - Pomaga w myśleniu i generowaniu rozwiązań - Oszczędza pieniądze i czas - Wspiera wizualną komunikację w zespole - Pozwala na szybszą ocenę - Pozwala szybciej popełnić błąd i go naprawić / odejść od złej koncepcji Analiza rynku - stworzenie modelu biznesowego - np. business model canvas lub pełen biznesplan. Klarowny koncept biznesowy jest potrzebny szczególnie na etapie pozyskiwania środków. **10. Mierzalność wymagań – motywacje, charakterystyka, przykłady (IW)** Wymagania muszą być określone w sposób umożliwiający sprawdzenie ich wypełnienia (mierzalne). Jest to korzyść obustronna. Przykładowo, “wysoka niezawodność systemu” nie ma określonego warunku spełnienia, natomiast “system dostępny dla użytkownika przynajmniej przez 99% czasu” jest w pełni mierzalne. Motywacje - klient chce uzyskać produkt zgodny z oczekiwaniami. Wykonawca chce znać próg, kiedy spełnił wymaganie. **11. Korzyści ze stosowania metod modelowania (MAB)** - automatyzacja pewnych czynności - zrozumienie złożonych systemów - zrozumienie struktury i procesów przed rozpoczęciem wytwarzania oprogramowania - analiza, walidacja, przewidywania cech i działania - dokumentacja podjętych decyzji - modele biznesowe są podstawą do rozpoczęcia prac nad wytwarzaniem systemu - lepsza komunikacja pomiędzy interesariuszami - wzrost jakości oprogramowania - inne, zgodnie z logiką :) **12. Zastosowanie wzorców analizy w analizie systemów (MAB)** wzorzec - powtarzalny problem i jego uniwersalne zastosowanie cel - redukcja kosztów i czasu, podniesienie jakości zastosowania: inspiracja przy tworzeniu własnych modeli, tworzenie firmowych bibliotek wzorców i ich wykorzystywanie Opis Fowlera vs PLoP (Pattern Languages of Programs) Opis Fowlera - rozwiązanie, które było użyteczny w jakimś kontekście, może być przydatne też w innych Pattern languages of programs - uniwersalne szablony, uniwersalne rozwiązania przykład: Sports Manager Pattern Podejście bez wzorca zalety: - dostosowanie rozwiązania pod konkretne wymagania - dowolność działania wady: - pominięcie istotnych bazowych klas - problem z odwzorowaniem niektórych relacji zmuszający do dłuższej analizy - konieczność przygotowania rozwiązania od zera każdorazowo Podejście ze wzorcem zalety: - przygotowane dokładne generyczne rozwiązanie pasujące do większości sportów - prostszy w zastosowaniu, przyśpiesza proces analizy - powtarzalność w wykorzystaniu - wspólny język z innymi analitykami wady: - ograniczenie kreatywności - pominięcie klas typowych dla konkretnych sportów - ogranicza możliwość wariacji niektórych klas - niektóre powiązania między klasami nie są do końca jasne i zrozumiałe **13. Modelowanie dziedzinowe (ang. domain-specific modeling) (MAB)** DSM - technika inżynierii oparta na modelach, w której najczęściej poprzez języki graficzne bazujące na piktogramach, staramy się uchwycić semantykę i syntaktykę języka opisu danej dziedziny. UML vs DSM Uniwersalny, z narzędziami do modelowania, sprawdzony i zdefiniowany vs specyficzny dla dziedziny, umożliwia łagodne dołączanie zmian do języka, umożliwia automatyzację (generatory kodu i dokumentacji) Twórca DSM musi być ekspertem ds. systemu danej dziedziny i znawcą dziedziny problemowej. DSM opłaca się w dużych projektach z planowanym użyciem DSM, w projektach podobnych do siebie oraz tam gdzie jest możliwa duża automatyzacja. Zalety DSM: - podwyższenie poziomu abstrakcji - poprawa produktywności - automatyczne generowanie kodu Wady DSM: - wymaga dodatkowej roli w projekcie, dodatkowej pracy do zdefiniowania DSM oraz specyficznych narzędzi **14. Techniki i kompetencje analityka biznesowego (MAB)** Analityk biznesowy działa na styku technologii i biznesu. Bierze udział m. in. w definiowaniu wymagań systemowych, ułatwia projektowania biznesowe, przewiduje skutki zmian, tworzy przypadki użycia Kompetencje: - znajomość technologii - znajomość procesów biznesowych - umiejętność komunikacji - znajomość narzędzi i notacji do modelowania biznesowego - Ekspert w identyfikowaniu i rozwiązywaniu problemów - praca zespołowa Techniki: - Analiza SWOT (SWOT Analysis) - Historyjki użytkowników (User Stories) - Ankiety i kwestionariusze (Survey/Questionnaire) - Macierz ról i uprawnień (Roles and Permissions Matrix) **15. Zagadnienia jakości, użyteczności i doświadczenia użytkownika w wytwarzaniu oprogramowania (UZOP)** **Jakość** to doskonałość w sprecyzowanym kontekście. Jakość w kontekście wytwarzania oprogramowania może się tyczyć zgodności produktu z wymaganiami.Kryteria jakości powinny być obiektywne i mierzalne. Dbanie o jakość to proces osiągania jak najwyższego stopnia doskonałości - jeśli wyjdziemy poza definicję spełnienia wymagań, to możemy mówić o doskonałości produktu np. przez jak najwyższą satysfakcję użytkowników (zorientowanie na klienta) lub w odniesieniu do cech oprogramowania, np. bezawaryjności (jak najwyższy jej poziom). System zapewnienia jakości - kompleksowy system uwzględniający nie tylko dbanie o jakość, ale też o jej stały rozwój. **Użyteczność** - pojęcia zdefiniowane normą ISO, zbiór atrybutów opisujących nakład pracy niezbędny do swobodnego posługiwania się oprogramowaniem, posiada atrybuty: - łatwość zrozumienia - łatwość nauki - operatywność User experience - każdy aspekt interakcji użytkownika z produktem **16. Cele i metody tworzenia prototypów oprogramowania (UZOP)** Przydatną techniką w ramach tworzenia produktów IT jest prototypowanie. Dlaczego? - Pomaga w myśleniu i generowaniu rozwiązań - Oszczędza pieniądze i czas - Wspiera wizualną komunikację w zespole - Pozwala na szybszą ocenę - Pozwala szybciej popełnić błąd i go naprawić / odejść od złej koncepcji - Można pokazać klientowi Metody: - Zastosowanie makiet (opisać zalety każdego) - kartka i ołówek - oprogramowanie graficzne do tworzenia makiet - oprogramowanie do prezentacji - dedykowane oprogramowanie do UX **17. Metody oceny użyteczności oprogramowania i doświadczenia użytkownika (UZOP)** Metody: - Testy A/B - analiza współczynnika konwersji, przydatne przy stronach www - Przygotowanie scenariuszy, które potem wykonuje użytkownik - tester - Ankiety i wywiady - Framework ABC - A - Affective - co czuje użytkownik - B - Behavioral - jak się użytkownik zachowuje - C - Cognitive - Co użytkownik myśli o programie Metody laboratoryjne oparte o scenariusze: - screen capturing - eye tracking - mouse tracking - nagrywanie użytkownika (też twarzy) Cele badania użyteczności i UX 1. Cel ilościowy (statystyka, np. jak użyteczna jest moja aplikacja 1/10) 2. Cel jakościowy (jakie są kluczowe problemy z użytecznością, czy użytkownik polubił aplikację, bardziej opisowe) **18. Zagadnienie dostępności (ang. accessibility) w wytwarzaniu oprogramowania (UZOP)** Opisać Web Content Accessibility Guidelines (WCAG) w kontekście oprogramowania Perceivable information and user interface * Text alternatives for non-text content * Captions and other alternatives for multimedia * Content can be presented in different ways * Content is easier to see and hear Operable user interface and navigation * Functionality is available from a keyboard * Users have enough time to read and use the content * Content does not cause seizures and physical reactions * Users can easily navigate, find content, and determine where they are * Users can use different input modalities beyond keyboard Understandable information and user interface * Text is readable and understandable * Content appears and operates in predictable ways * Users are helped to avoid and correct mistakes Robust content and reliable interpretation * Content is compatible with current and future user tools **19. Walidacja i weryfikacja w inżynierii wymagań (IW)** Walidacja wymagań - potwierdzenie u interesariuszy poprawności i kompletności wymagań, ostatnia w cyklu procesu inżynierii wymagań, zawiera sprzężenie zwrotne do wszystkich poprzednich punktów tj. wydobywania, analizowania i specyfikowania: - prezentacja i uzgadnianie z interesariuszem (prototypowanie, przeglądanie, specyfikowanie testów akceptacyjnych) - potwierdzenie przez interesariuszy, że taki zbiór wymagań odzwierciedla ich potrzeby - wymaga konsultacji z najważniejszymi interesariuszami oraz uwzględnienie tych nieożywionych tj. strategia biznesowa, strategia technologiczna, aspekty prawne Weryfikacja możliwa jest na zasadzie pokazania ich deweloperom: - testerowi, czy wymagania są testowalne - projektantowi, czy da się na jego podstawie podjąć decyzję co do rozwiązań Weryfikacja daje odpowiedź na pytanie czy to co robimy, robimy dobrze Walidacja daje odpowiedź na pytanie czy to co robimy ma sens ***Można robić dobrze rzeczy bezsensowne*** Techniki walidacji - przeglądy i inspekcje - prototypowanie - specyfikowanie testów akceptacyjnych - definiowanie kryteriów akceptacji systemu **20. Techniki pozyskiwania wymagań (IW)** - Studia dziedzinowe - Analiza istniejącego systemu - Wywiady - najczęstsza technika - Praca grupowa - Ciągła współpraca z klientem - Scenariusze / use case’y - Obserwacje - Kwestionariusze - Eksperymenty / symulacje - Prototypowanie **21. Zarządzanie wymaganiami w cyklu życia oprogramowania (IW)** Zarządzanie wymaganiami to systematyczne podejście do: - pozyskiwania - specyfikowania - dokumentowania - analizy - zmian względem wymagań - wymagania nie istnieją osobno, ale są od siebie zależne - wymagania stanowią wczesną reprezentację systemu - dobra inżyniera zmniejsza liczbę błędów w wymaganiach, ale nie można oczekiwać, że zmniejszy do zera - trzeba się liczyć z poprawkami - wymagania mogą podlegać zmianom z przyczyn obiektywnych, np. nowa sytuacja na rynku, itp. Zakres zarządzania wymaganiami: - zarządzanie procesami (pozyskiwanie, analiza, specyfikowanie) - zarządzanie zmianami - zarządzanie śladami (ślad wskazuje uzasadnienie wymagań i powiązania między wymaganiami) **22. Cele i metody analizy wymagań (IW)** Cele: - poprawa jakości obsługi klienta - zwiększenie konkurencyjności własnych produktów - lepsze szacowanie własnych zasobów - dodatkowe argumenty marketingowe - obniżka kosztów - lepsza jakość własnych produktów Metody: - analiza konfliktów (np. wymagania tego samego typu albo o tej samej skali kryterium akceptowalności) - Analiza kompletności kryteriów akceptacyjnych: - czy odzwierciedlają cele - czy nie są nadmiarowe - czy są związane z testami - czy testowanie będzie efektywne - czy zostały sformułowane zgodnie z przyjętymi standardami - czy są jednoznaczne - Inspekcje - działania zespołowe, ukierunkowane na: - wykrycie defektów w dokumencie - potwierdzenie dobrej jakości dokumentu - co najmniej 2 uczestników - autor dokumentu jest uczestnikiem inspekcji - inspekcja wymaga sformułowania kryteriów Kryteria analizy wymagań: - realne - jednoznaczne - spójne - kompletne - mierzalne - elastyczne w odniesieniu do implementacji - powiązane - dokładne w odniesieniu do oczekiwań udziałowców **23. Pojęcia ryzyka i hazardu w zapewnianiu bezpieczeństwa (BS)** **Ryzyko** jest to prawdopodobieństwo wystąpienia hazardu w odniesieniu do skali jego konsekwencji. **Hazard** to sytuacja lub przypadek, którego zaistnienie niesie potencjalne zagrożenie życia, społeczności, ekonomiczne lub środowiskowe - poprzedza wystąpienie wypadku (incydentu). Aby zapewnić bezpieczeństwo, konieczne jest zarówno stosowanie działań na rzecz zapobiegania wystąpieniu hazardu jak i minimalizacji negatywnych jego skutków, jeśli zapobieganie okaże się nieskuteczne. Typowy łańcuch zdarzeń: Hazard (np. podwyższona temperatura w pomieszczeniu -> Wypadek inicjalizujący zdarzenie (np. Zły dobór parametrów pracy karty przy podkręcaniu jej przez użytkownika) -> Dewiacja/odchylenie (karta graficzna osiąga temperaturę krytyczną) -> Wypadek (karta się zapala) -> Wpływ (spalenie komputera oraz jego ew. otoczenia) Strategie zarządzania ryzykiem: - Avoid - Accept - Transfer - Reduce **24. Metody analizy bezpieczeństwa i zakres ich stosowalności (BS)** Przykłady metod to: - **HAZOP** (Hazard and Operability Studies) - Event Tree Analysis (**ETA**) - Fault Tree Analysis (**FTA**) - Failure Modes and Effects Analysis (**FMEA**) - Failure Modes, Effects and Criticality Analysis (**FMECA**) - Cause Consequence Analysis (**CCA**) Wpierw omówmy **HAZOP**. Jej celem jest ustalenie niebezpiecznych rodzajów awarii. W swojej metodyce trochę podobne do burzy mózgów - grupa dobrze poinformowanych osób ma na celu zidentyfikowanie wszystkich sytuacji, w których mogą się pojawić zagrożenia (hazardy). Metoda może zajmować dużo czasu dla dużego systemu. Kolejną metodą jest **ETA** - drzewo od przyczyn do konsekwencji - jest to proces identyfikacji skutków i prawdopodobieństwa kombinacji zdarzeń. ETA może służyć do dekompozycji na mniejsze zestawy zdarzeń, które potem mogą być analizowane np. przez FTA. **FTA** - od konsekwencji / hazardów / zagrożeń do przyczyn (analiza ryzyka). Metoda dedukcyjna, której celem jest przeprowadzenie identyfikacji i analizy warunków oraz czynników. **FMEA** - skutki awarii - predefiniowana lista usterek na wejście. Proces FMEA polega na logicznej argumentacji w celu określenia skutków awarii. Ocenia skutki awarii komponentu. FMECA - FMEA biorąca pod uwagę skutki awarii dla bezpieczeństwa systemu, także w zakresie ich krytyczności. CCA - ETA + FTA w formie analizy przyczynowo-skutkowej. Start od zdarzenia krytycznego, które może wywołać poważne konsekwencje. Od niego argumentowanie jest w przód (określenie jego konsekwencji) oraz w tył (określenie jego przyczyn) **25. Metody tolerowania defektów i ich wpływ na niezawodność systemu (BS)** Jako metody tolerowania defektów, możemy wymienić: - Mechanizm obsługi wyjątków, - programowanie w N wersjach (programy są podobne, ale nie identyczne), - N komponentów (o tej samej funkcjonalności, a następnie głosowanie, by wybrać odpowiedź), - Recovery blocks (alternatywne sposoby do wykonania zadania). **26. 4-warstwowa architektura meta-modeli, powiązane standardy i zastosowania (MAB)** ![](https://i.imgur.com/z4n4bzd.png) ![](https://i.imgur.com/t65nuyQ.png) Zastosowania metamodeli: - Objaśnianie języka - w metamodelu możemy zdefiniować, że np. klasa może posiadać atrybuty i metody - Refleksja i współdziałanie: - każdy język/system posiada swój metamodel, który można opisać - jawne swformułowanie metamodelu jest kluczem do integracji aplikacji. Pozwala zdefiniować odwzorowania danych pomiędzy częściami systemu. - Ewolucja oprogramowania - zmiany schematu źródeł danych (czyli metadanych) powodują zwykle propagację zmian na oprogramowanie. Stąd metamodel powinen uwzględniać i opisywać te zależności. Specyfikacja MOF (Meta Object Facility) - Abstrakcyjny język oraz rozszerzalna rama integracji kierowanej modelem, służąca: - specyfikowaniu, - tworzeniu, - manipulowaniu, - wymianie i integrowaniu metadanych i danych w sposób niezależny od platformy MDA - Model Driven Architecture - Intencją jest podniesienie poziomu abstrakcji w procesie budowy systemów, poprzez oddzielenie logiki biznesowej od elementów projektowych zależnych od konkretnej infrastruktury implementacyjnej - Centralną rolę odgrywa w tej technologii modelowanie w UML. - Same postulaty nie wykraczają koncepcyjnie poza uznane zasady inżynierii oprogramowania. XMI (XML Metadata Interchange) - Pierwszoplanowy cel: możliwość zapisu modeli UML w XML - Służy zapisowi modelu, a nie diagramów - Sposób zdefiniowania XMI (oparcie go na modelu MOF), zapewnia jednak potencjał znacznie szerszego zakresu zastosowań: każdy metamodel opisany w MOF może być (wraz ze swymi wystąpieniami) reprezentowany w XMI **27. Pojęcie zasobów informacyjnych oraz dotyczących ich zagrożeń bezpieczeństwa (ZBI)** **Zasoby informacyjne** - wszelkie informacje oraz dane, które są wartościowe w danym kontekście. Mają swoich właścicieli, mogą być zidentyfikowane i nazwane. Zagrożenia: - utrata integralności; - utrata poufności; - utrata dostępu; Definicje: - Asset (zasób) - coś, co staramy się chronić; - Vulnerability (podatność) - słabość, dziura w mechanizmach zabezpieczeń, którą można wpłynąć na bezpieczeństwo zasobu; - Threat (zagrożenie) - wszystko, co może wykorzystać podatność, celowo lub przypadkowo, - impact - miara powagi zagrożenia; - Attack - scenariusz ataku naruszający bezpieczeństwo zasobu; - Risk (ryzyko) - miara potencjalnej straty, uszkodzeń lub zniszczeń zasobów w wyniku zagrożenia wykorzystującego podatność; **28. Cele i zakres systemu zarządzania bezpieczeństwem informacji (ZBI)** Cele zarządzania bezpieczeństwem informacji: - **poufność** - dostęp mają tylko Ci co powinni, - **integralność** - chronienie dokładności i kompletności informacji i ich przetwarzania, - **dostępność** - informacje są dostępne dla autoryzowanych użytkowników, gdy jest to potrzebne. Ze względu na rosnące wymagania klientów dotyczące bezpieczeństwa informacji w organizacjach, została opracowana międzynarodowa norma dla systemu zarządzania bezpieczeństwem informacji **ISO/IEC 27001:2014** (SZBI), która jest wykorzystywana przy certyfikacji przez stronę trzecią. Norma ta określa wymagania dla systemu zarządzania bezpieczeństwem informacji. Stosowanie tych wymogów przyczynia się do trwałej ochrony zasobów informacyjnych. Celem jest zapewnienie partnerom gwarancji wystarczającego poziomu zabezpieczenie firmowych informacji. Korzyści z SZBI: - wprowadzenie systemowego podejścia do zarządzania bezpieczeństwem informacji - ulepszone procedury poufności zgodnie z obowiązującymi przepisami (tajemnice handlowe, tajemnice finansowe i podatkowe, dane osobowe, informacje niejawne ...) - zmniejszenie ryzyka ataku hakerów na sieć korporacyjną i komputery - szybsze i łatwiejsze odzyskiwanie po ataku oraz zwiększona zdolność do „przetrwania” awarii - znaczny wzrost wiarygodności firmy, ułatwiający penetrację nowych rynków w UE - identyfikacja ryzyka oraz narzędzie ich eliminacji i zarządzania nimi - zwiększenie wzajemnego zaufania między partnerami biznesowymi - minimalizowanie ryzyka strat ekonomicznych związanych z awarią techniczną Zakres systemu zarządzania bezpieczeństwem informacji: - zasoby: - zasoby pamięci, - procesy przetwarzania, - przesył danych. - cele - jak powyżej, - narzędzia kontroli / środki: - technologia, - świadomość, szkolenia i edukacja, - polityki i procedury bezpieczeństwa. Składniki prewencyjnego systemu ISMS (Information Security Measure System): - Adjust - planuj i poprawiaj działanie; - Plan - określ i zaprojektuj system; - Do - zaimplementuj system; - Check - monitoruj i oceniaj działanie; Jak działa ISMS? Zagrożenie (prewencja/przewidywanie/redukcja) -> Incydent (detekcja, powstrzymanie (hamowanie / represja) -> Szkody. **29. Metody analizy ryzyka dotyczącego bezpieczeństwa informacji (ZBI)** Metody oceny ryzyka: - według międzynarodowych norm - w ISO 31010 Risk Managment - Risk Assesment Techniques opisano ich ponad 30 - przykłady - analiza drzewa decyzji (Event Tree Analisys), analiza drzewa błędów (Fault Tree Analisys). Wady metod dostępnych w ramach norm: - zbyt ogólne; - nie każda metoda nadaje się do każdej analizy (np. w ramach normy ISO 31010 istnieją normy dot. awarii, których nie możemy przetransponować na potrzeby systemu zarządzania ryzykiem) Podstawowe elementy analizy ryzyka: - Oznaczenie granic systemu; - Identyfikacja assetów (tutaj są to informacje) procesów biznesowych,, zagrożeń ipodatności na zagrożenia w ramach granic systemu; - Dla assetów i zagrożeń - ocena wpływu/straty w przypadku wystąpienia zagrożenia; - Dla podatności - skorzystanie z baz takich jak NVD, CERT, ENISA; - Ocena aktualnych środków ochrony w stosunku do podatności i zagrożeń; - Ocena ryzyka; Zbieranie danych do oceny ryzyka obejmuje: - Wywiad z właścicielami assetów; - Wprowadzanie zaangażowania udziałowców; - Zrozumienie różnicy pomiędzy rozmową a przesłuchaniem; - Czynniki analizy ryzyka - tabela zagrożeń do podatności; Strategie reagowania na ryzyko: - Unikanie - wycofanie się z niebezpiecznej aktywności; - Akceptowanie - nie robienie nic; - Transfer; - Redukcji Macierz Rumsfelda - relacja między wiedzą a świadomością. Więcej informacji: http://rocznikikae.sgh.waw.pl/p/roczniki_kae_z49_26.pdf **30. Pojęcia bezpieczeństwa (ang. safety), zabezpieczenia (ang. security) oraz prywatności (ang. privacy) i ich wzajemne relacje (ZBI)** **Bezpieczeństwo** - unikanie wypadków i katastrof (tyczy się zdarzeń mających konsekwencje w postaci krzywdy ludzkiej, strat wobec środowiska czy też własności prywatnej / publicznej. **Zabezpieczenia** - chronią zasoby przed zagrożeniami w stosunku do ich poufności, integralności i dostępności **Prywatność** - zdolność do ograniczenia dostępu do informacji jakiej się jest właścicielem, wyłącznie do wybranych osób lub tylko samego siebie. - Złe zabezpieczenia narażają bezpieczeństwo (bariery bezpieczeństwa uniemożliwiają przejazd karetki). - Bezpieczeństwo może negatywnie wpływać na zabezpieczenia (droga pożarowa bez szlabanu umożliwia wjazd osobom niepowołanym, ale jednocześnie szybki wjazd straż pożarnej). - Zabezpieczenia odnoszą się też do bezpieczeństwa (np. by elektrownia nuklearna była bezpieczenia, musi posiadać odpowiednie zabezpieczenia). - Perspektywa bezpieczeństwa jest ważna dla zabezpieczeń - np. tworząc sejf w banku, musimy uwzględnić, że ktoś przypadkiem może się w nim zamknąć i z czasem się udusić. **31. Linie wsparcia technicznego systemów IT oraz umowy typu SLA (ZESI)** SLA (Service Level Agreement) - umowa, której celem jest zarządzanie poziomem usług): - SLR (Service Level Requirements) - wymagania dotyczące określonej usługi; - SLA - uzgodnienie opisujące parametry usług; - OLA (Operational LA) - uzgodnienie parametrów usług wewnętrznych; - UC (Underpinning Contract) - umowy z zewnętrznymi dostawcami usług; - Założenie - klient płaci za usługi, a nie pracę IT; Problemy z usługami IT rozwiązywane są w ramach wsparcia, które można podzielić na konkretne linie. W kontekście podziału na trzy linie, można wyróżnić: 1. Działanie wykonywane samodzielnie przez użytkownika na podstawie pomocy z FAQ / szybkie porady telefonicznej, osoba udzielająca w takim wypadku porady nie musi posiadać zaawansowanej wiedzy - np. “wyłącz i włącz komputer” 2. Działania na drugiej linii wymagają kontaktu z osobą udzielającą wsparcie, która posiada wiedzę techniczną w pożądanym zakresie, może np. obejmować przejęcie kontroli nad pulpitem przez osobę udzielającą wsparcia i zmianę ustawień / wykonanie diagnostyki problemu. 3. Trzecia linia wsparcia to sytuacja, gdzie serwis wymaga dostarczenia nowego produktu (np. wdrożenie nowej wersji oprogramowania ze stosowną poprawką) / innych działań w obszarze IT po stronie dostawcy **32. Rola i rodzaje middleware (oprogramowania pośredniczącego) w integracji systemów IT (ZESI)** Middleware - oprogramowanie pośredniczące - umożliwia komunikację pomiędzy wieloma dostawcami a ich użytkownikami: - Zapewnia logiczne i fizyczne rozdzielnie strony świadczącej usługi od strony dostarczającej usługi; - Ułatwia zarządzanie usługami po stronie dostawcy usług; Główne rodzaje: - Transakcyjne - każda usługa wykonywana jest w ramach transakcji, strona wywołująca czeka na wynik transakcji. Wykorzystywane np. w bankowości (np. Tuxedo); - Zorientowane na wiadomości - zapytania o usługę czekają w kolejce na obsługę, strona wywołująca nie czeka na wynik (np. Amazon Simple Notification Service); - Systemy dostępu do baz danych typu ODBC, JDBC, transaction processing monitors; - Procesory zapytań (rozmaitego rodzaju aplikacje integrujące interfejsy różnych komponentów aplikacyjnych, np. Enterprise Integration Portals, w których zapytania zadawane przez aplikację, np. CRM, są przetwarzane na zapytania obsługiwane przez inną aplikację, np. system billingowy); - DDR (ang. Data Driven Routing) pozwalający na budowę **33. Modele eksploracyjne do klasyfikacji danych i metody ich oceny (PDB)** Badanie eksploracyjne to podejście we wnioskowaniu statystycznym obejmujące opis, wizualizację i badanie zebranych danych bez potrzeby zakładania z góry hipotez badawczych. Pewną ewolucją tego jest eksploracja danych (data mining), danologia (Data Science) i Big Data. Data Science - interdyscyplinarne pole używające naukowych metod, procesów, algorytmów i systemów do wydobywania spostrzeżeń z danych strukturalnych i nieustrukturyzowanych. Wykorzystuje statystykę, analizę danych, uczenie maszynowe, wiedzę dziedzinową i powiązane metody w celu zrozumienia i analizy danych. Big Data w modelu 3V - duża ilość danych (volume), duża prędkość przetwarzania (velocity) oraz duża różnorodność danych (variety). (Za META Group w 2001 r.) Klasteryzacja (Analiza skupień, grupowanie) - jest to klasyfikacja bez nadzoru. Podstawą grupowania są podobieństwa pomiędzy elementami. Klasyfikacja polega na znajdowaniu sposobu odwzorowania danych w zbiór predefiniowanych klas. Na podstawie zawartości bazy danych budowany jest model (np. drzewo decyzyjne albo reguły logiczne), który służy do klasyfikacji nowych obiektów w bazie danych lub głębszego zrozumienia istniejących klas. Przykłady klasyfikacji: - rozpoznawanie trendów na rynkach finansowych, - automatyczne rozpoznawanie obiektów w dużych bazach danych, - wspomaganie decyzji przyznawania kredytów bankowych. Przykłady modeli decyzyjnych: - drzewo decyzyjne: - każdy wierzchołek, z wyjątkiem liści, oznacza testowanie pewnego atrybutu analizowanego obiektu; - każda krawędź wychodząca z wierzchołka reprezentuje wynik testu; - każdy liść oznacza klasę, do której należy obiekt; - sieć neuronowa - w zastosowaniach do problemów klasyfikacji, składa się ze współpracujących ze sobą jednostek przetwarzania zwanych neuronami, między którymi istnieją połączenia o określonych wagach; - Naiwny klasyfikator Bayesa (Link zewnętrzny); - Analiza statystyczna; - Metaheurestyki (Metaheurystyka - algorytm do rozwiązywania problemów obliczeniowych, nie tworzy rozwiązania ale podaje sposób na stworzenie odpowiedniego algorytmu), czyli np. algorytmy genetyczne (przeszukują przestrzeń rozwiązań alternatywnych w celu znalezienie najlepszych rozwiązań); - Zbiory przybliżone (Teoria zbiorów przybliżonych opiera się na założeniu, że każdy obiekt można opisać za pomocą pewnych informacji. Obiekty opisane takimi samymi „informacjami” – czyli takimi samymi wartościami atrybutów – są uznawane za nierozróżnialne. W ten sposób zdefiniowana relacja nierozróżnialności jest matematyczną podstawą teorii zbiorów przybliżonych. - Stratyfikacja (podział w sposób taki, że podzbiór zbioru posiada równomierną reprezentację klas); (Więcej info: Wykład Waloszka i Zawadzkiej) Oceniając metody klasyfikacji, wskazujemy na: - dokładność predykcji, - efektywność (z ang. speed) - koszt obliczeniowy, - Odponość modelu - zdolność do poprawnej predykcji klasy w przypadku braku części danych, - skalowalność - jak się skaluje do dużych wolumenów danych, - interpretowalność - w jakim stopniu konstrukcja klasyfikatora pozwala na zrozumienie mechanizmu klasyfikacji danych, - kryteria dziedzinowo zależne Dodatkowe pojęcia: system informacyjny http://zsi.tech.us.edu.pl/~nowak/se/se_rs.pdf