Navigation
Seiteninhalt
Der AI Act: Seit kurzem fixer Stern am Regulierungshorizont. Erste Fragen trudeln ein. Unser Kurzinterview mit unseren Experten gibt schon einmal einen Einblick in die wichtigsten Bereiche: Welche großen To-Dos gibt es? Welche Unternehmen sind betroffen? Was ist eine "vertrauenswürdige KI"? Mehr dazu im Artikel!

Der AI Act ist "beschlossene Sache". Die weltweit erste KI-Regulierungsform ihrer Art wirft aber aktuell noch so einige Fragen auf. Einen ersten Einblick in gängige Fragen und Antworten zum Topic geben unsere beiden Experten Gerhard Kunnert und Günter Wildmann.

  • Welche Bereiche der Unternehmen wird der AI Act am meisten betreffen? 

    Der Einsatz eines KI-Systems in der Produktion muss zunächst auf der strategischen (Management-)Ebene adressiert werden („Datenstrategie“; „Ziel“ des KI-Einsatzes). Spätestens im Stadium der Detailkonzeption eines Prototyps kommt die „Compliance“ ins Spiel, da ethische und rechtliche Fragen in den Blick genommen werden müssen. An der Erstellung und Testung des Prototyps selbst wirken naturgemäß die IT und die Produktion zusammen. Die Evaluierung darf sich nicht nur auf eine betrieblich-technische beschränken, sondern muss auch eine rechtliche (Auswirkungen auf Rechtspositionen, insbesondere auf Grundrechte) einschließen. Die weitreichenden Anforderungen an das Qualitäts- und Risikomanagement machen schließlich die Involvierung der mit diesen Aufgaben betrauten Organisationseinheiten unabdingbar. Bedingt durch erforderliche Awareness- und Schulungsmaßnahmen ist jedenfalls auch der HR-Bereich gefordert.
  • Müssen sich vor allem Compliance Officer:innen vor der gesetzlichen Hürde „fürchten"?

    Compliance Officer:innen werden eine wichtige Rolle bei der Umsetzung der rechtlichen Vorgaben aus dem AI Act spielen. Um Ängsten zu begegnen und Risiken von Beginn an im beherrschbaren Rahmen zu halten, ist ein proaktiver Ansatz gefordert.
  • Was sind die großen To-Dos für sie?

    Compliance Officer:innen können ihrer Aufgabe nur gerecht werden, wenn sie mit bestimmten grundlegenden Anforderungen des AI-Acts gut vertraut sind (va Klassifizierung von KI-Systemen, Transparenzanforderungen, grundrechtliche Evaluierung, Konformitätsprüfung, Berichtspflichten uam). Nur auf dieser Basis sind sie in der Lage, sowohl das Management als auch die Mitarbeiter:innen entsprechend für die Erfordernisse aus dem AI Act zu sensibilisieren. Dies bedeutet in einem ersten Schritt einen entsprechenden Aufwand für den Aufbau an eigener Kompetenz. In einem zweiten Schritt besteht die Herausforderung – ähnlich wie bei der Implementierung anderer Regularien – darin, als Compliance Officer:in permanent und zeitnah in die Etablierung und Entwicklung einschlägiger KI-gestützter Produktionsprozesse eingebunden zu werden. Dies sind die Voraussetzungen für die Entfaltung einer wirksamen Steuerungswirkung aus Compliance-Sicht.
  • Der AI Act war schon im vergangenen Jahr Thema. Dann gab es auf EU-Ebene einiges an hin und her? Was waren die Gründe?

    Das intensive Ringen zwischen EU-Parlament und EU-Rat im Jahr 2023 ging ganz wesentlich auf den Umstand zurück, dass während der Verhandlungen die im ursprünglichen Entwurf des AI Acts aus 2021 nicht berücksichtigten sog KI-Basismodelle (auch: allgemeine KI-Modelle) wie bspw ChatGPT in den Fokus der Öffentlichkeit rückten. Diese können mit vergleichsweise geringem Finetuning für vielfältige Zwecke eingesetzt werden (Text-, Bildgenerierung, Programmieraufgaben) und verfügen über eine hohe Leistungsfähigkeit.

    Während das EU-Parlament die KI-Basismodelle in den Regelungsrahmen des AI Acts einbeziehen wollte, verfolgten va Frankreich und Deutschland das entgegengesetzte Ziel: Deren Motivation war letztlich darin zu sehen, die globalen Chancen vielversprechender KI-Start-up-Unternehmen in diesen beiden Ländern (Mistral AI S.A.S., Aleph Alpha GmbH) zu fördern. Als Kompromiss unterliegen nunmehr nur besonders wirkmächtige KI-Basis-Modelle mit „systemischem Risiko“ einer strengen Regulierung.
  • Wie kommt der AI Act bei den betroffenen Staaten tatsächlich an? Yay or nay?

    Der AI Act wurde von den 27 Mitgliedstaaten der EU letztlich einstimmig angenommen. Die Stimmung unter den Normadressaten ist geteilt. EU-Akteure verweisen typischerweise auf bürokratische Belastungen für risikobehaftete KI-Anwendungen. Einzelne US-Bundesstaaten dagegen haben bei ihren eigenen KI-Regularien Anleihen am AI Act genommen. Allgemein wird erwartet, dass der AI Act infolge der nach wie vor gegebenen wirtschaftlichen Bedeutung des EU-Binnenmarkts durchaus einen wichtigen Beitrag zur globalen Standardsetzung leisten wird. Kein Zweifel besteht im Übrigen am ökonomischen Potenzial zur Effizienzsteigerung sowohl im staatlichen als auch im privaten Sektor.
  • „Vertrauenswürdige KI": Gibt es das überhaupt? Kann der AI Act wirklich für angemessene Transparenz und Vertrauenswürdigkeit im Sinne einer guten Compliance sorgen?

    Als kennzeichnend für vertrauenswürdige KI gilt neben der Erkennbarkeit ihres Einsatzes insbesondere die möglichst diskriminierungs- bzw. missbrauchsfreie Konzeption der zugrundeliegenden Modelle. Der AI Act normiert folgerichtig spezifische Transparenzpflichten, an Risikostufen anknüpfende Vorgaben für Ex-ante-Prüfungen und postuliert den Grundsatz, dass von KI-Systemen generierte Entscheidungsvorschläge stets einer menschlichen Kontrolle unterworfen sein müssen. Insgesamt ist der Regulierungsansatz vom Ziel geprägt, eine Balance zwischen technologischer Innovation und Wahrung legitimer (Grund-)Rechtspositionen zu erreichen. Zu begrüßen ist dabei der Umstand, dass der AI Act praktisch die Akteure entlang der gesamten „KI-Wertschöpfungskette“ adressiert. Die Überwachung der Umsetzung des AI Acts wird von Marktaufsichtsbehörden bewerkstelligt. Im Falle des Rückgriffs auf personenbezogene Daten kommt auch den Datenschutzaufsichtsbehörden eine wichtige Rolle zu. Letztlich wird das Ausmaß an Vertrauen in die KI-Technologie maßgeblich von der Umsetzung und Durchsetzung des AI Acts beeinflusst werden. 
Gerhard Kunnert, © AICS KG

Dr. iur. Gerhard Kunnert

Dr. Gerhard Kunnert ist Geschäftsführer der Artificial Intelligence Consulting Services KG (AICS KG), er ist zertifizierter externer Datenschutzbeauftragter und –auditor. Als Experte beteiligt er sich aktiv an den Verhandlungen der DSGVO. Auch im öffentlichen Bereich hat Kunnert bereits Erfahrungen: Er ist vormaliger stv Leiter der Datenschutzabteilung des Justizministeriums sowie Ad-hoc-Prozessvertreter am EuGH und Mitglied im Support Pool of Experts (SPE) des Europäischen Datenschutz-Ausschusses.

Günter Wildmann, © AICS KG

Ing. Mag. Günter Wildmann

Günter Wildmann ist als Kommanditist der AICS KG tätig. Ausgebildet in den Bereichen Elektrotechnik und Wirtschaftsinformatik, ist er allg und gerichtlich beeideter Sachverständiger für Informationstechnik, langjähriger Chief Privacy Officer eines führenden internationalen Technologiekonzerns und gilt als Experte ua für Datenschutzmanagementsysteme. Auch Wildmann unterstützt als Mitglied den Support Pool of Experts (SPE) des Europäischen Datenschutz-Ausschusses.

Autoren

{"uuid":"5ca4b7c2b3ad48769cdede7df2b34f79","username":"9040513a-8bb6-4e43-947a-0d8cddde5f27","firstname":"Christiane","lastname":"Jördens","emailAddress":"christiane.joerdens@lexisnexis.at","created":"2024-04-04T09:46:08.054Z","edited":"2024-08-02T07:18:38.646Z","jobposition":"Compliance-Redakteurin/Content Managerin","fullname":"Mag.a Christiane Jördens, Bakk.a","salutation":"Frau","pretitle":"Mag.a","posttitle":"Bakk.a","companyname":"LexisNexis","premium":true,"telephone":"+43 664 883 587 68","vita":"Christiane Jördens hat Publizistik und Kommunikationswissenschaft an der Uni Wien studiert und bereits während ihres Studiums begonnen als Redakteurin, Texterin und Model zu arbeiten. Als Journalistin war sie vor allem im Bereich Mode und Modewirtschaft tätig. Seit 2023 ist sie als Content Managerin für die redaktionellen und inhaltlichen Belange der Compliance Praxis verantwortlich.","open":true,"profilephoto":{"uuid":"2bc5f83ecfc047afa2574f7a2c79a51b","path":"/202_42nn0eur.png","fields":{"name":"202_42nn0eur.png","description":"Christiane Jördens"}},"path":"https://www.compliance-praxis.at/Insider/Menschen/Person.html?pid=5ca4b7c2b3ad48769cdede7df2b34f79"}
202_42nn0eur.png

Mag.a Christiane Jördens Bakk.a

Christiane Jördens hat Publizistik und Kommunikationswissenschaft an der Uni Wien studiert und bereits während ihres Studiums begonnen als Redakteurin, Texterin und Model zu arbeiten. Als Journalis...

{"name":"Q & A - AI Act","contenttype":"text/html","templateName":"content-page","headmeta":"<meta charset=\"utf-8\">\n<meta http-equiv=\"X-UA-Compatible\" content=\"IE=edge\">\n<meta name=\"viewport\" content=\"width=device-width, initial-scale=1\">\n\n\n\n\n\n <title>Q &amp; A - AI Act</title>\n \n <meta name=\"keywords\" content=\"AI Act, Q and A, KI-Regulierung, Artificial Intelligence, EU, Künstliche Intelligenz\"/>\n\n <meta name=\"description\" content=\"Unser Kurzinterview mit unseren Experten gibt schon einmal einen Einblick in die wichtigsten Bereiche des AI Acts.\"/>\n\n <meta property=\"og:image\" content=\"/Themen/Aktuelles_Meinung/Aktuell/Opengraph_Q_and_A_KI_Regulierung.jpg\"/>\n <meta property=\"og:image:height\" content=\"630\"/>\n <meta property=\"og:image:width\" content=\"1200\"/>\n <meta property=\"og:title\" content=\"Q & A - AI Act\"/>\n <meta property=\"og:site_name\" content=\"CompliancePraxis\"/>\n <meta property=\"og:url\" content=\"/Themen/Aktuelles_Meinung/Aktuell/q-and-A-AI-Act.html\"/>\n <meta property=\"og:type\" content=\"website\"/>\n <meta property=\"og:locale\" content=\"de_DE\">\n <meta property=\"og:description\" content=\"Unser Kurzinterview mit unseren Experten gibt schon einmal einen Einblick in die wichtigsten Bereiche des AI Acts.\"/>\n","title":"Q &amp; A - AI Act","teaser":"Der AI Act: Seit kurzem fixer Stern am Regulierungshorizont. Erste Fragen trudeln ein. Unser Kurzinterview mit unseren Experten gibt schon einmal einen Einblick in die wichtigsten Bereiche: Welche großen To-Dos gibt es? Welche Unternehmen sind betroffen? Was ist eine \"vertrauenswürdige KI\"? Mehr dazu im Artikel!","pagecontent":"<p class=\"\">Der <b>AI Act ist \"beschlossene Sache\"</b>. Die weltweit erste KI-Regulierungsform ihrer Art wirft aber aktuell noch so einige Fragen auf. Einen ersten Einblick in gängige Fragen und Antworten zum Topic geben unsere beiden Experten <b>Gerhard Kunnert</b> und <b>Günter Wildmann</b>.</p><ul><li style=\"\"><b>Welche Bereiche der Unternehmen wird der AI Act am meisten betreffen?&nbsp;</b><br style=\"\"><br style=\"\">Der Einsatz eines KI-Systems in der Produktion muss zunächst auf der strategischen (Management-)Ebene adressiert werden („Datenstrategie“; „Ziel“ des KI-Einsatzes). Spätestens im Stadium der Detailkonzeption eines Prototyps kommt die „Compliance“ ins Spiel, da ethische und rechtliche Fragen in den Blick genommen werden müssen. An der Erstellung und Testung des Prototyps selbst wirken naturgemäß die IT und die Produktion zusammen. Die Evaluierung darf sich nicht nur auf eine betrieblich-technische beschränken, sondern muss auch eine rechtliche (Auswirkungen auf Rechtspositionen, insbesondere auf Grundrechte) einschließen. Die weitreichenden Anforderungen an das Qualitäts- und Risikomanagement machen schließlich die Involvierung der mit diesen Aufgaben betrauten Organisationseinheiten unabdingbar. Bedingt durch erforderliche Awareness- und Schulungsmaßnahmen ist jedenfalls auch der HR-Bereich gefordert. </li><li style=\"\"><b>Müssen sich vor allem Compliance Officer:innen vor der gesetzlichen Hürde „fürchten\"? </b><br style=\"\"><br>Compliance Officer:innen werden eine wichtige Rolle bei der Umsetzung der rechtlichen Vorgaben aus dem AI Act spielen. Um Ängsten zu begegnen und Risiken von Beginn an im beherrschbaren Rahmen zu halten, ist ein proaktiver Ansatz gefordert. </li><li style=\"\"><b>Was sind die großen To-Dos für sie?</b><br style=\"\"><br>Compliance Officer:innen können ihrer Aufgabe nur gerecht werden, wenn sie mit bestimmten grundlegenden Anforderungen des AI-Acts gut vertraut sind (va Klassifizierung von KI-Systemen, Transparenzanforderungen, grundrechtliche Evaluierung, Konformitätsprüfung, Berichtspflichten uam). Nur auf dieser Basis sind sie in der Lage, sowohl das Management als auch die Mitarbeiter:innen entsprechend für die Erfordernisse aus dem AI Act zu sensibilisieren. Dies bedeutet in einem ersten Schritt einen entsprechenden Aufwand für den Aufbau an eigener Kompetenz. In einem zweiten Schritt besteht die Herausforderung – ähnlich wie bei der Implementierung anderer Regularien – darin, als Compliance Officer:in permanent und zeitnah in die Etablierung und Entwicklung einschlägiger KI-gestützter Produktionsprozesse eingebunden zu werden. Dies sind die Voraussetzungen für die Entfaltung einer wirksamen Steuerungswirkung aus Compliance-Sicht. </li><li style=\"\"><b>Der AI Act war schon im vergangenen Jahr Thema. Dann gab es auf EU-Ebene einiges an hin und her? Was waren die Gründe? </b><br style=\"\"><br>Das intensive Ringen zwischen EU-Parlament und EU-Rat im Jahr 2023 ging ganz wesentlich auf den Umstand zurück, dass während der Verhandlungen die im ursprünglichen Entwurf des AI Acts aus 2021 nicht berücksichtigten sog KI-Basismodelle (auch: allgemeine KI-Modelle) wie bspw ChatGPT in den Fokus der Öffentlichkeit rückten. Diese können mit vergleichsweise geringem Finetuning für vielfältige Zwecke eingesetzt werden (Text-, Bildgenerierung, Programmieraufgaben) und verfügen über eine hohe Leistungsfähigkeit. <br style=\"\"><br>Während das EU-Parlament die KI-Basismodelle in den Regelungsrahmen des AI Acts einbeziehen wollte, verfolgten va Frankreich und Deutschland das entgegengesetzte Ziel: Deren Motivation war letztlich darin zu sehen, die globalen Chancen vielversprechender KI-Start-up-Unternehmen in diesen beiden Ländern (Mistral AI S.A.S., Aleph Alpha GmbH) zu fördern. Als Kompromiss unterliegen nunmehr nur besonders wirkmächtige KI-Basis-Modelle mit „systemischem Risiko“ einer strengen Regulierung. </li><li style=\"\"><b>Wie kommt der AI Act bei den betroffenen Staaten tatsächlich an? Yay or nay?</b><br style=\"\"><br>Der AI Act wurde von den 27 Mitgliedstaaten der EU letztlich einstimmig angenommen. Die Stimmung unter den Normadressaten ist geteilt. EU-Akteure verweisen typischerweise auf bürokratische Belastungen für risikobehaftete KI-Anwendungen. Einzelne US-Bundesstaaten dagegen haben bei ihren eigenen KI-Regularien Anleihen am AI Act genommen. Allgemein wird erwartet, dass der AI Act infolge der nach wie vor gegebenen wirtschaftlichen Bedeutung des EU-Binnenmarkts durchaus einen wichtigen Beitrag zur globalen Standardsetzung leisten wird. Kein Zweifel besteht im Übrigen am ökonomischen Potenzial zur Effizienzsteigerung sowohl im staatlichen als auch im privaten Sektor. </li><li style=\"\"><b>„Vertrauenswürdige KI\": Gibt es das überhaupt? Kann der AI Act wirklich für angemessene Transparenz und Vertrauenswürdigkeit im Sinne einer guten Compliance sorgen?</b><br style=\"\"><br>Als kennzeichnend für vertrauenswürdige KI gilt neben der Erkennbarkeit ihres Einsatzes insbesondere die möglichst diskriminierungs- bzw. missbrauchsfreie Konzeption der zugrundeliegenden Modelle. Der AI Act normiert folgerichtig spezifische Transparenzpflichten, an Risikostufen anknüpfende Vorgaben für Ex-ante-Prüfungen und postuliert den Grundsatz, dass von KI-Systemen generierte Entscheidungsvorschläge stets einer menschlichen Kontrolle unterworfen sein müssen. Insgesamt ist der Regulierungsansatz vom Ziel geprägt, eine Balance zwischen technologischer Innovation und Wahrung legitimer (Grund-)Rechtspositionen zu erreichen. Zu begrüßen ist dabei der Umstand, dass der AI Act praktisch die Akteure entlang der gesamten „KI-Wertschöpfungskette“ adressiert. Die Überwachung der Umsetzung des AI Acts wird von Marktaufsichtsbehörden bewerkstelligt. Im Falle des Rückgriffs auf personenbezogene Daten kommt auch den Datenschutzaufsichtsbehörden eine wichtige Rolle zu. Letztlich wird das Ausmaß an Vertrauen in die KI-Technologie maßgeblich von der Umsetzung und Durchsetzung des AI Acts beeinflusst werden.&nbsp;</li></ul><div class=\"card autoren\" style=\"border-top:none\">\n\t<div class=\"no-gutters d-flex flex-column flex-sm-row\">\n\t\t<div class=\"flex-grow-1 flex-sm-shrink-1\">\n\t\t\t\t\t\t\t<img src=\"https://www.compliance-praxis.at/GenticsImageStore/800/auto/prop/Themen/Aktuelles_Meinung/Aktuell/Gerhard-kunnert.jpg\" title=\"© AICS KG\" class=\"card-img\" alt=\"Gerhard Kunnert, © AICS KG\">\n\t\t\t\t\t</div>\n\t\t<div class=\"w-100 card-body\">\n\t\t\t<h2 class=\"card-title\">Dr. iur. Gerhard Kunnert</h2>\n\t\t\t<div class=\"card-text \"></div>\n\t\t</div>\n\t</div>\n</div><p style=\"\">Dr. Gerhard Kunnert ist Geschäftsführer der Artificial Intelligence Consulting Services KG (AICS KG), er ist zertifizierter externer Datenschutzbeauftragter und –auditor. Als Experte beteiligt er sich aktiv an den Verhandlungen der DSGVO. Auch im öffentlichen Bereich hat Kunnert bereits Erfahrungen: Er ist vormaliger stv Leiter der Datenschutzabteilung des Justizministeriums sowie Ad-hoc-Prozessvertreter am EuGH und Mitglied im Support Pool of Experts (SPE) des Europäischen Datenschutz-Ausschusses.</p><div class=\"card autoren\" style=\"border-top:none\">\n\t<div class=\"no-gutters d-flex flex-column flex-sm-row\">\n\t\t<div class=\"flex-grow-1 flex-sm-shrink-1\">\n\t\t\t\t\t\t\t<img src=\"https://www.compliance-praxis.at/GenticsImageStore/800/auto/prop/Themen/Aktuelles_Meinung/Aktuell/Guenter_Wildmann.jpg\" title=\"© AICS KG\" class=\"card-img\" alt=\"Günter Wildmann, © AICS KG\">\n\t\t\t\t\t</div>\n\t\t<div class=\"w-100 card-body\">\n\t\t\t<h2 class=\"card-title\"><b>Ing. Mag. Günter Wildmann</b></h2>\n\t\t\t<div class=\"card-text \"></div>\n\t\t</div>\n\t</div>\n</div><p style=\"\">Günter Wildmann ist als Kommanditist der AICS KG tätig. Ausgebildet in den Bereichen Elektrotechnik und Wirtschaftsinformatik, ist er allg und gerichtlich beeideter Sachverständiger für Informationstechnik, langjähriger Chief Privacy Officer eines führenden internationalen Technologiekonzerns und gilt als Experte ua für Datenschutzmanagementsysteme. Auch Wildmann unterstützt als Mitglied den Support Pool of Experts (SPE) des Europäischen Datenschutz-Ausschusses.</p>","sidecolumn":null,"storiesmain":null,"storiesoverview":null,"headerimage":"<div class=\"card content-teaser clearfix \">\n <img src=\"/Themen/Aktuelles_Meinung/Aktuell/AdobeStock_c_BusinessPics.jpeg\" class=\"card-img\" alt=\"AI Act Regulierungskarte, © stock.adobe.com - Business Pics\">\n <div class=\"\">\n <div class=\"card-img-overlay\" title=\"© stock.adobe.com - Business Pics\">\n <div class=\"card-header bg-white rounded-0 border-0 col-12 col-sm-11 col-md-8 col-lg-6\">\n <h1 class=\"card-title color-black\">Q &amp; A - AI Act</h1>\n </div>\n </div>\n </div>\n</div>\n","headertitle":"","stoerercontainer":null,"stoerercontainer2":null,"stoererwerbebanner":"","insiderheads":null,"overviewunternehmenimage":null,"overviewunternehmentitle":null,"buttonviewall1":null,"buttonviewall2":null,"superelement":null,"topstory":null,"netzwerkpartnerlogoleiste":"","metadata":"<div class=\"info\"><eval>>partials/themes-startpage/newsauthors data=(renderNewsAuthors \"571:christiane.joerdens@lexisnexis.at\" userinfo)</eval>\n<br>24. Juni 2024</div>","footnotes":"<div class=\"footnote v-spacer footnote-editor-preview d-none\"></div>\n","eventsmain":null,"eventsoverview":null,"eventsoverviewjson":null,"event":"","eventdates":"","footer":"<footer class=\"d-flex flex-column flex-xl-row\">\n\t<span class=\"sr-only\">Footer</span>\n\t<ul class=\"nav footer-nav flex-row pb-4 pb-xl-0 w-100\" id=\"footernavigation\" role=\"navigation\">\n\t\t\t\t\t\t\t</ul>\n\t<div class=\"copyright flex-md-shrink-1 text-left text-md-right\">\n\t\t\t\t<img src=\"/static/compliance_praxis/files/images/LexisNexis.png\" alt=\"LexisNexis\">\n\t\t<p></p>\t</div>\n</footer>\n","footerglobal":"<eval>{cpConfigLoader \"global\" \"footer\"}</eval>","footerjson":null,"onetrust":null,"ogimagefallback":null,"ogimagefallbackheight":null,"ogimagefallbackwidth":null,"cpcouponlist":null,"taggedthemes":["Compliance Officer","Künstliche Intelligenz"],"taggedcategories":["Aktuelles & Meinung"],"taggedorganizers":[],"taggedexhibitors":[],"taggedlecturers":[],"taggedmoderators":[],"taggedparticipants":[],"taggedauthors":["571:christiane.joerdens@lexisnexis.at"],"taggedmagazine":[],"taggedmagazinepage":"","taggedadvertorial":[],"taggingcontainer":null,"authorsdetails":"<div><eval>>partials/content-page/authorsdetails</eval></div>","participantsdetails":null,"contactsdetails":null,"portalapp":"cpshop,cprelatedarticles,","sidecolumninsider":null,"sidecolumnthemen":null,"sidecolumnevents":null,"sidecolumnglobal":"\t<eval>{cpConfigLoader \"stoerer\" \"sidecolumnthemen\"}</eval>\n\t\t\t\t\t\t<eval>> partials/applications/cprelatedarticles applicationtag=\"cprelatedarticles\"</eval>\n\t\t\t","sidecolumntop":"<div class=\"row\"></div>","sidecolumnbottom":"<div class=\"row\"></div>","premium":false,"oecov":null,"textimage":null,"upcompanytaggedevents":null,"upcompanyadvertorialarticles":null,"personprofile":null,"cms_id":12361,"usermodule":null,"cpuseraccount":null,"meshroles":["anonymous"],"taggingusers":null,"magentoshopapp":"\n"}