{"id":18959,"date":"2022-11-29T17:37:15","date_gmt":"2022-11-29T16:37:15","guid":{"rendered":"http:\/\/neu.thegeekettez.com\/?p=18959"},"modified":"2025-10-16T12:10:01","modified_gmt":"2025-10-16T10:10:01","slug":"kognitive-psychologie-fur-designerinnen-feature-integration-theory-visuelle-suche","status":"publish","type":"post","link":"https:\/\/birdux.studio\/en\/kognitive-psychologie-fur-designerinnen-feature-integration-theory-visuelle-suche\/","title":{"rendered":"Cognitive Psychology for Designers: Feature Integration Theory and Visual Search"},"content":{"rendered":"<p><strong>Feature Integration Theory explains how humans recognize objects through visual attention, involving two distinct stages of information processing. The first stage is automatic and rapid, allowing us to process basic visual features such as color, orientation, shape, and movement without conscious effort. In the second stage, these features are combined to perceive complete objects, a process that requires focused attention and is significantly slower. Understanding these cognitive processes enables designers to enhance object findability, particularly by leveraging the pop-out effect in critical contexts.<\/strong><\/p>\n\n\n\n<p>Visual search is a frequent part of daily life. For instance, at a concert, we might look for a friend by focusing on distinguishing features such as blonde hair and a red jumper. In psychology, this person is referred to as the<em>\"target stimulus\"<\/em>or simply the<em>\"target\"<\/em>.<\/p>\n\n\n\n<p>Visual search involves perception and attention, helping us locate relevant objects in complex environments. In psychological terms, irrelevant objects are called \"distractors.\"<\/p>\n\n\n\n<p>Visual search is essential because our cognitive capacity cannot process all visual information simultaneously. This process is also critical in interface design, enabling users to quickly locate specific apps or elements.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">An example from everyday (digital) life<\/h2>\n\n\n\n<p><\/p>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"606\" height=\"982\" src=\"https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/tweet_google-icons-ux.jpg\" alt=\"Smartphone view of Google icons that are all very similar\" class=\"wp-image-18962\" style=\"width:455px;height:737px\" srcset=\"https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/tweet_google-icons-ux.jpg 606w, https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/tweet_google-icons-ux-480x778.jpg 480w\" sizes=\"(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 606px, 100vw\" \/><\/figure>\n\n\n\n<p><\/p>\n\n\n\n<p>I often tap the wrong app icon when trying to open FaceTime, especially when multiple apps share the same colour. This illustrates the challenge of distinguishing between similar visual features.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"592\" height=\"1024\" src=\"https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/psychology-ux-feauture-integration-theory.jpg\" alt=\"Smartphone screen with many icons, some are more similar than others\" class=\"wp-image-18964\" style=\"width:444px;height:768px\" srcset=\"https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/psychology-ux-feauture-integration-theory.jpg 592w, https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/psychology-ux-feauture-integration-theory-480x830.jpg 480w\" sizes=\"(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 592px, 100vw\" \/><\/figure>\n\n\n\n<p><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">The Feature Integration Theory<\/h2>\n\n\n\n<p>The <em>Feature Integration Theory<\/em> by Anne Treisman and Garry Gelade (1980) offers an explanation for this phenomenon. According to this theory, we perceive objects in two steps.&nbsp;<\/p>\n\n\n\n<p class=\"translation-block\">In the first step, basic visual characteristics such as colour, movement, or the orientation or shape of an object are automatically (and therefore swiftly) recognised and processed (so-called pre-attentive stage, as no attention is required from us here).<\/p>\n\n\n\n<p>However, the combination and integration of these individual features of an object to perceive it as a whole (also known as \"conjunction\") is a slower process that requires our attention. This phase (attentive stage) is needed because <em>conscious <\/em>information processing takes longer than the first automatic process.<\/p>\n\n\n\n<p>In the example above, I have many green apps on my display. Colour perception happens very quickly and unconsciously (pre-attentive stage), which explains why one taps on the wrong app. Only in the second stage (attentive stage) do I perceive \"finer\" details such as the specific icon (camera, arrows, etc.) in combination with the colour, and my brain forms \"FaceTime Icon\" or \"Whatsapp Icon\". We - or rather our brain - integrate or \"conjugate\" all the characteristics of the object into a whole.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">The classic experiment<\/h3>\n\n\n\n<p>Let's try it out with the classic experiment adapted from Treisman and Gelade (1980): Try to find the blue \"X\" in the following graphic. The blue \"X\" is our target stimulus, and it is surrounded by so-called \"interfering stimuli\" that are irrelevant to us.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><strong>Feature condition: Find the blue \"X\".<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"794\" height=\"519\" src=\"https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/01-feature-target-blue.jpg\" alt=\"\" class=\"wp-image-18969\" srcset=\"https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/01-feature-target-blue.jpg 794w, https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/01-feature-target-blue-480x314.jpg 480w\" sizes=\"(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 794px, 100vw\" \/><\/figure>\n\n\n\n<p>Ok, that was very easy, wasn't it?&nbsp;<strong>We can also try the same thing again with several disruptive elements.<\/strong>.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"794\" height=\"519\" src=\"https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/02feature-target-blue-more-2.jpg\" alt=\"\" class=\"wp-image-18975\" srcset=\"https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/02feature-target-blue-more-2.jpg 794w, https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/02feature-target-blue-more-2-480x314.jpg 480w\" sizes=\"(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 794px, 100vw\" \/><\/figure>\n\n\n\n<p>We can see that our blue \"X\" pops out, even with several interfering elements (Pop-out effect), allowing us to identify it very quickly. We look at all objects at the same time and can still recognise the blue \"X\" among all the other interfering elements very quickly. This happens so fast because we use the automatic, parallel processing mentioned above: We simply look at the objects that are within our field of vision, perceive them all simultaneously, and our target stimulus still \"jumps out\" at us due to its <em>unique property<\/em>, which it shares with none of the other objects in the vicinity - the blue colour.&nbsp;<\/p>\n\n\n\n<p><strong>Let's continue with our experiment. We will now try to find the green letter \"T\" in our graph (integration condition):<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"794\" height=\"519\" src=\"https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/conjunction.jpg\" alt=\"\" class=\"wp-image-18977\" srcset=\"https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/conjunction.jpg 794w, https:\/\/birdux.studio\/wp-content\/uploads\/2023\/03\/conjunction-480x314.jpg 480w\" sizes=\"(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 794px, 100vw\" \/><\/figure>\n\n\n\n<p>Did you find the green T? If yes, that probably took longer, didn't it? Since we are no longer just looking for a unique feature, our target object no longer \"stands out\". As a result, finding the target stimulus seems much more difficult because it is surrounded by other green letters as well as other \"T's\". Our target stimulus (the green T) shares features with all of our interfering objects: the green colour of the letter \"X\" &amp; the shape with the purple \"T\".<\/p>\n\n\n\n<p>Therefore, a close inspection of each individual object is required to combine the features (shape and colour). If an object is not our target object, we move on to the next object until we discover our target object. This corresponds to a serial, step-by-step processing or a serial search process. That takes time.<\/p>\n\n\n\n<p>In the first two experiments (\"Find the blue X\" - the so-called feature or characteristic condition), not even the search time is affected by the number of interfering elements. The target object is recognised automatically, unconsciously, and therefore very quickly during a pre-attentive level due to its unique feature. <em>\"Colour\"<\/em>has been recognised. We do not need directed, i.e., conscious attention to identify our target object, but use rapid parallel information processing and thus a parallel search.<\/p>\n\n\n\n<p>In the third experiment (integration condition), however, the search time increases with the number of visible interfering elements, as we are forced to focus our attention on the interfering objects in order to find our target object. This leads to slow serial processing and, therefore, a serial search. We \"scan\" each element and check whether it has the characteristics of our target object.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">What does this mean for Interface Design?<\/h2>\n\n\n\n<p>If several objects have too many features in common, it can become difficult for us to find what we are looking for. The Feature Integration Theory is a scientific approach explaining this phenomenon, allowing us to take it into account when making design decisions.&nbsp;<\/p>\n\n\n\n<p>Let's remember the first example with Google symbols: The features are all too similar; they have a lot in common. They share the same shape and colour, both of which we perceive quickly and automatically at the so-called pre-attentive stage. This makes it impossible for us to find the right object quickly during this fast processing stage, as we cannot distinguish between them fast enough. So we need the slower one, attentive level to find our target object - i.e., we first have to consciously scan each individual element and check whether it is our \"target object\" - and that takes time.\u00a0\u00a0<\/p>\n\n\n\n<p>This can pose a risk in situations where rapid action and reaction are required. Think of healthcare, the transport and automotive sectors, aeroplanes, space shuttles, or industry in general. But even for products  not used in safety-critical environments, we can utilise the findings from cognitive psychology to make people's lives a little easier.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<h6 class=\"wp-block-heading\"><strong>Literature<\/strong><\/h6>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Treisman, A. M., &amp; Gelade, G. (1980). A feature-integration theory of attention. Cognitive Psychology, 12(1), 97-136. <a href=\"https:\/\/doi.org\/10.1016\/0010-0285(80)90005-5\" target=\"_blank\" rel=\"noopener\">https:\/\/doi.org\/10.1016\/0010-0285(80)90005-5<\/a><\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>Die Feature Integration Theory (deutsch: Merkmalsintegrationstheorie) ist eine Theorie, die die menschliche Objekterkennung mithilfe visueller Aufmerksamkeit erkl\u00e4rt und von zwei separaten Informationsverarbeitungsstufen ausgeht. Die erste Phase ist ein automatischer Prozess und l\u00e4uft so schnell ab, dass wir sie nicht bemerken. Hier verarbeiten wir&nbsp; automatisch grundlegende visuelle Merkmale eines Objektes wie Farbe, Ausrichtung, Form oder ob [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":18960,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_et_pb_use_builder":"off","_et_pb_old_content":"<!-- wp:paragraph -->\n<p><strong>Research-basierte Personas und die daraus entstandenen User\/Customer Journeys vereinfachen die Requirements- sowie Produktentwicklung enorm, da sie bei der Identifikation von Optimierungspotenzial helfen. Dies wiederum hilft fundierte Entscheidungen \u00fcber Produktfunktionen, Interaktionen und Navigationswege <strong>zu treffen<\/strong><\/strong> <strong>sowie die Priorisierung der Funktionen zu erleichtern.<\/strong><\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Oft herrschen innerhalb eines Teams und Unternehmens sehr viele unterschiedliche Meinungen, wer die Nutzer*innen oder Kund*innen sind und welche W\u00fcnsche, Bedarfe, Fragen und Ziele diese haben. In der Folge wird relativ schwammig vom \u201c<em>User<\/em>\u201d oder den \u201c<em>Nutzer*innen<\/em>\u201d gesprochen. Diese \u201cUser\u201d sind jedoch sehr formbar und k\u00f6nnen sich den Meinungen und Vorannahmen der jeweiligen Person, die gerade \u00fcber den\/die \u201cUser\u201d spricht, perfekt anpassen. Alan Cooper, der \u201eErfinder\u201c von Personas nannte dieses Ph\u00e4nomen \u201e<em>The elastic user\u201c<\/em><\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:image {\"align\":\"center\",\"id\":13130,\"sizeSlug\":\"full\",\"linkDestination\":\"media\"} -->\n<figure class=\"wp-block-image aligncenter size-full\"><a href=\"https:\/\/birdux.studio\/wp-content\/uploads\/2022\/10\/elastic-user-1.png\"><img src=\"https:\/\/birdux.studio\/wp-content\/uploads\/2022\/10\/elastic-user-1.png\" alt=\"\" class=\"wp-image-13130\"\/><\/a><\/figure>\n<!-- \/wp:image -->\n\n<!-- wp:paragraph -->\n<p><em>Abb. 1: \u201cThe elastic user\u201d von Alan Cooper in About Face 3. Passt sich perfekt an das jeweilige Produktteam an.<\/em><\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Statt aus der Perspektive der Nutzer*innen wird somit anhand von Meinungen und Annahmen oder gar aus der Perspektive der Technik entschieden und priorisiert, welche Funktionen geplant werden oder welche Features wann umgesetzt werden.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Die Folge sind Systeme, die an den Nutzer*innen vorbei entwickelt und eventuell \u00fcberladen sind, keinen echten Mehrwert bieten, dem Wettbewerb nicht weiter standhalten oder nichts Neues im Sinne einer Innovation bereitstellen.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Eine L\u00f6sung bieten hier <em>research-basierte Personas<\/em>. Research-basierte Personas k\u00f6nnen als Ausgangspunkt f\u00fcr Journey Maps dienen, welche wiederum das Optimierungs- sowie Innovationspotenzial von Produkten und Services offenlegen. So werden die Requirements- sowie Produktentwicklung und die Priorisierungen von Funktionen enorm erleichtert und basieren auf fundierten Entscheidungen statt auf Meinungen.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:heading {\"level\":3} -->\n<h3><strong>Was sind Personas?<\/strong><\/h3>\n<!-- \/wp:heading -->\n\n<!-- wp:paragraph -->\n<p>Personas sind prototypische Beschreibungen von repr\u00e4sentativen Nutzer*innen. Sie werden basierend auf qualitativen Interviews und ggf kontextbezogenen Beobachtungen erstellt. Kurz gesagt, sind Personas eine M\u00f6glichkeit, User Research Ergebnisse zusammenzufassen. Sie sind weder echte Menschen noch ein \"durchschnittlicher\" Benutzer oder sollten gar auf Stereotypen basieren. Sie sind <em>Benutzermodelle<\/em>.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:image {\"align\":\"center\",\"id\":13131,\"sizeSlug\":\"full\",\"linkDestination\":\"media\"} -->\n<figure class=\"wp-block-image aligncenter size-full\"><a href=\"https:\/\/birdux.studio\/wp-content\/uploads\/2022\/10\/persona-example.png\"><img src=\"https:\/\/birdux.studio\/wp-content\/uploads\/2022\/10\/persona-example.png\" alt=\"\" class=\"wp-image-13131\"\/><\/a><\/figure>\n<!-- \/wp:image -->\n\n<!-- wp:paragraph -->\n<p><em>Abb. 2: So k\u00f6nnte ein Persona Profil aussehen: Die Persona hat einen Namen, Ziele, Pr\u00e4ferenzen, Bedenken und Fragen<\/em><\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Aber was hei\u00dft das \u00fcberhaupt \u2013 \u201eModell\u201c ? George Box, ein bekannter Statistiker hat dies einmal in seinem bekannten Spruch \u201e<em>All models are wrong, but some are useful<\/em>\"&nbsp; auf den Punkt gebracht. Burnham und Anderson (2002) erkl\u00e4rten Modelle als \"<em> (....) eine Vereinfachung oder Ann\u00e4herung an die&nbsp; der Realit\u00e4t (\u2026) sie spiegeln daher nicht die gesamte Realit\u00e4t wider.<\/em>\" Kurz gesagt, werden Modelle verwendet, um komplexe Dinge&nbsp; wie beispielsweise Hirnforschung , das Universum oder U-Bahnpl\u00e4ne&nbsp; mit einer n\u00fctzlichen Abstraktion darzustellen.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p><strong>Personas sind Benutzermodelle<\/strong><\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Warum legen wir hier so viel Wert darauf? Wir sind der \u00dcberzeugung, es ist sehr wichtig zu verdeutlichen, dass Personas als <em>Modelle <\/em>gesehen werden, denn dies bedeutet, dass wir uns jederzeit bewusst sind, dass sie nicht zu 100% die Realit\u00e4t widerspiegeln, sondern eine <em>Abstraktion<\/em> dieser komplexen Realit\u00e4t sind. Sie sind als Werkzeuge zu sehen, um Forschungsergebnisse zu kommunizieren und helfen f\u00fcr ein geteiltes Verst\u00e4ndnis dieser Ergebnisse im Team bzw. im Unternehmen.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Diese Abstraktion f\u00fchrt zu der Frage: Warum verwenden wir Modelle und nutzen nicht einfach die Realit\u00e4t?<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Der U-Bahn-Plan der BVG ist ein hervorragendes Beispiel f\u00fcr ein Modell. Der Plan enth\u00e4lt die wichtigsten Informationen, um an das gew\u00fcnschte Ziel zu gelangen: eindeutige Namen und Farben f\u00fcr jede Linie, die Reihenfolge der Stationen auf jeder Linie, die Umsteigebahnh\u00f6fe zwischen den Linien usw. Aber die f\u00fcr uns als Fahrg\u00e4ste weniger wichtigen Details&nbsp; \u2013 wie z. B. die Tiefe der einzelnen Tunnel, die genaue Entfernung zwischen den Stationen werden ignoriert. Eine Tiefbaufirma z.B. ben\u00f6tigt hierzu andere Modelle, da sie etwas anderes tun m\u00f6chte als einfach von A nach B zu fahren. F\u00fcr uns als Fahrg\u00e4ste w\u00e4re ein solches Detailgrad im Plan nicht n\u00f6tig, es k\u00f6nnte sehr wahrscheinlich sogar die Lesbarkeit f\u00fcr uns enorm erschweren und den Plan f\u00fcr uns unverst\u00e4ndlich machen.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:image {\"align\":\"center\",\"id\":13132,\"sizeSlug\":\"full\",\"linkDestination\":\"media\"} -->\n<figure class=\"wp-block-image aligncenter size-full\"><a href=\"https:\/\/birdux.studio\/wp-content\/uploads\/2022\/10\/modellbsp-bvg.png\"><img src=\"https:\/\/birdux.studio\/wp-content\/uploads\/2022\/10\/modellbsp-bvg.png\" alt=\"\" class=\"wp-image-13132\"\/><\/a><\/figure>\n<!-- \/wp:image -->\n\n<!-- wp:paragraph -->\n<p><em>Abb.3: Ein Modell des BVG U-Bahn Netzes mit sinnvollen Abstraktionen der Realit\u00e4t<\/em><\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Auch Modelle des Universums erkl\u00e4ren nicht, wie das Universum in der \"Realit\u00e4t\" funktioniert, aber sie machen das Konzept f\u00fcr nicht-Astrophysiker greifbar und ersparen uns Fachjournals zu w\u00e4lzen, um ein Verst\u00e4ndnis \u00fcber das Themengebiet zu bekommen.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Genauso kann Nutzer*innenforschung verwendet werden, um beschreibende Modelle der Nutzer*innen zu erstellen. Diese Modelle helfen, die Komplexit\u00e4t der Interviewdaten auf eine besser verst\u00e4ndliche Weise in das Team zu kommunizieren. Modelle zeigen die Funktionsweise von Dingen in einer konsumierbaren Form, die zug\u00e4nglich und leicht zu kommunizieren sind. Es ist einfacher, einige wenige Personas zu kommunizieren, als alle ethnographischen Reporte zu lesen.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:heading {\"level\":4} -->\n<h4><strong>Personas informieren den IST Zustand einer User- oder Customer Journey<\/strong><\/h4>\n<!-- \/wp:heading -->\n\n<!-- wp:paragraph -->\n<p>Anhand der research-basierten Personas bekommt man Einblicke in die Fragen, Bed\u00fcrfnisse und Bedenken, aber auch in typische Nutzungsszenarien. Aus diesen Informationen ist es m\u00f6glich, einen IST-Zustand der Customer Journey abzuleiten \u2013 mit all ihren positiven und auch negativen Erfahrungen \u2013 den <em>Pain Points<\/em>. Diese Pain Points sind genau das, was von gro\u00dfem Interesse ist \u2013&nbsp;denn hier steckt das Potenzial f\u00fcr Optimierungen und Neuerungen.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:heading {\"level\":3} -->\n<h3><strong>Was sind Journey Maps?<\/strong><\/h3>\n<!-- \/wp:heading -->\n\n<!-- wp:paragraph -->\n<p>Eine Journey Map ist eine Darstellung aller Interaktionspunkte (oder: <em>Touchpoints<\/em>) zwischen Ihren Nutzer*innen\/Kund*innen (repr\u00e4sentiert durch die Personas) und Ihrem Produkt bzw. Dienstleistung. Journey Maps repr\u00e4sentieren somit die <em>momentane <\/em>Nutzer*innenerfahrung und eignen sich hervorragend, um Optimierungspotenzial aufzudecken. Durch die auf den Interviewdaten basierenden Personas werden die jeweiligen Interaktionspunkte \/ Touchpoints ermittelt. Anschlie\u00dfend wird pro Touchpoint der Ist-Zustand der Nutzererfahrung auf diesen Touchpoints \u201cgemappt\u201d. Dies k\u00f6nnen positive als auch negative Erfahrungen wie Sorgen, \u00c4ngste, Fragen oder Bedenken sein, die aus Interviews ersichtlich wurden. Anhand dieses Mappings wird sichtbar, wo die Optimierungspotenziale stecken: Oftmals genau in&nbsp; den \u201eL\u00fccken\u201c einer positiven Nutzererfahrung.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>All dies wird in einer&nbsp;\u00dcbersicht zusammengefasst, so dass klar wird, wo genau der gr\u00f6\u00dfte Optmierungsbedarf besteht.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:image {\"align\":\"center\",\"id\":13133,\"sizeSlug\":\"full\",\"linkDestination\":\"media\"} -->\n<figure class=\"wp-block-image aligncenter size-full\"><a href=\"https:\/\/birdux.studio\/wp-content\/uploads\/2022\/10\/journeymap-example.png\"><img src=\"https:\/\/birdux.studio\/wp-content\/uploads\/2022\/10\/journeymap-example.png\" alt=\"\" class=\"wp-image-13133\"\/><\/a><\/figure>\n<!-- \/wp:image -->\n\n<!-- wp:paragraph -->\n<p><em>Abb.4: Ein Beispiel, wie eine User\/Customer Journey Map aussehen kann<\/em><\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Diese Darlegung der Nutzererfahrung mit dem Produkt\/der Dienstleistung stellt dann einen wertvollen Ausgangspunkt f\u00fcr die folgende Ideenphase (<em>Future <\/em>Scenarios\/ Maps) sowie f\u00fcr die Priorisierung der Funktionen und die weitere Produktentwicklung dar.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:heading {\"level\":3} -->\n<h3><strong>Fazit:<\/strong><\/h3>\n<!-- \/wp:heading -->\n\n<!-- wp:paragraph -->\n<p>Research-basierte Personas und die daraus resultierenden Journey Maps sind hervorragende Werkzeuge, um anschlie\u00dfend fundierte Ideen zur Aussch\u00f6pfung der Optimierungspotentiale zu entwickeln. Dies wiederum bildet eine solide Basis f\u00fcr eine an Nutzer*innen ausgerichtete und priorisierte Requirement - und Produktentwicklung, denn mit einem abteilungs\u00fcbergreifenden Verst\u00e4ndnis \u00fcber Ihre Nutzer*innen und Kund*innen&nbsp;stellen Sie sicher, dass das ganze Team ein gemeinsames Verst\u00e4ndnis der Nutzer*innen und deren Ziele und Bed\u00fcrfnisse hat und treffen fundierte Entscheidungen dar\u00fcber, was wann umgesetzt werden soll und verringern somit Ihr Kostenrisiko in einem&nbsp; Neu- oder Umgestaltungsprozess.<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p><strong>Quellen<\/strong><\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Alan Cooper , Robert Reimann , Dave Cronin, About face 3: the essentials of interaction design, John Wiley &amp; Sons, Inc., New York, NY, 2007<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Burnham, K. P.; Anderson, D. R. (2002), Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach (2nd ed.), Springer-Verlag<\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p><strong>Bild:<\/strong><\/p>\n<!-- \/wp:paragraph -->\n\n<!-- wp:paragraph -->\n<p>Header Photo by<a href=\"https:\/\/unsplash.com\/@kaleidico?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText\"> Kaleidico<\/a> on<a href=\"https:\/\/unsplash.com\/s\/photos\/design-team?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText\"> Unsplash<\/a><\/p>\n<!-- \/wp:paragraph -->","_et_gb_content_width":"","footnotes":""},"categories":[7,121],"tags":[125,126,259,40],"class_list":["post-18959","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-user-experience-design","category-ui-design-system","tag-customerexperience","tag-cx","tag-userexperience","tag-ux-2"],"_links":{"self":[{"href":"https:\/\/birdux.studio\/en\/wp-json\/wp\/v2\/posts\/18959","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/birdux.studio\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/birdux.studio\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/birdux.studio\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/birdux.studio\/en\/wp-json\/wp\/v2\/comments?post=18959"}],"version-history":[{"count":5,"href":"https:\/\/birdux.studio\/en\/wp-json\/wp\/v2\/posts\/18959\/revisions"}],"predecessor-version":[{"id":26814,"href":"https:\/\/birdux.studio\/en\/wp-json\/wp\/v2\/posts\/18959\/revisions\/26814"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/birdux.studio\/en\/wp-json\/wp\/v2\/media\/18960"}],"wp:attachment":[{"href":"https:\/\/birdux.studio\/en\/wp-json\/wp\/v2\/media?parent=18959"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/birdux.studio\/en\/wp-json\/wp\/v2\/categories?post=18959"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/birdux.studio\/en\/wp-json\/wp\/v2\/tags?post=18959"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}