Quantcast
Channel: Analyst POV

Interview: Is AI eating Data Infrastructure?

$
0
0

In November 2017, I met Christian Lorentz from NetApp during Cloud Expo in Frankfurt. Based on my experience, he wanted to find out if artificial intelligence (AI) is eating the data infrastructure.

Many big industry names are saying that AI is eating software. Is AI also eating the hardware?

Rene Buest: Perhaps a better way of looking at this one is asking: Is AI eating the IT admins? And the answer is yes, and no. Yes, AI is going to transform the jobs of today’s IT admins, because AI is going to automate a lot of tasks which have been done manually in the past. As an example, finding an anomaly in a multitude of log files is something that an AI systems can do better and faster than a human administrator. However, IT admins will be able to focus on tasks which are more valuable for the business. Instead of just keeping the lights on, IT professionals will be designing new solutions, looking into new trends, and bringing creative technical approaches into the business world. This is certainly a positive development.

What is the impact of AI on traditional infrastructure? How about on data?

Rene Buest: The next-generation infrastructure needs to be more autonomous, in order to support AI – I am talking about an AI-defined Infrastructure. Server-less infrastructure and containers, for example, are two of the technologies which it is imperative to make ”AI-ready”. With regards to data, AI does not only need a large quantity of data, but it does require adequate quality data. What I mean with that is, that good quality data is necessary to build a process in an AI system, as is the experience of specialists. Without the right data and expertise, AI cannot reliably learn and, ultimately, act autonomously in the most positive way.

How can enterprises and IT organizations prepare themselves to have an AI-ready data infrastructure?

Rene Buest: It is very easy. First of all, an organization needs to accept a continuous data flow as a foundation for its future strategies. This includes getting rid of data silos. To do this, organizations need to invest in open systems and open APIs. AI needs easy and secure access to data, independent of its location and format. Once this is ensured, AI then needs to be implemented to automate IT operations. Because every single piece of data that exists or is created inside an organization ends up being stored in the IT environment. Afterwards this can be expanded to other business processes by using knowledge of the organization gathered through IT automation , ultimately making more processes autonomous. Eventually, an organization could think about data-driven processes by using data, knowledge, experience and AI to generate outcome based processes like new business models, services or products. This is the execution path to an AI-enabled enterprise.

– – –

The interview with Christian Lorentz was also published under “Is AI Eating Data Infrastructure? An Interview with Rene Buest“.


Digitization: It’s an Evolution and not a Transformation

$
0
0

History Has Shown That Digitization Is More Evolution Than Revolution.

Some people say one should not look behind. The past is gone, and you cannot change it anymore. Well, that’s true and it is indeed the right attitude to look into the future because this is the only place where you can change things and introduce innovation. However, I am on the opinion that it is important to consider what has happened in the past. It is significant to understand why things happened and to learn from it, in order to avoid and overcome mistakes from others and thus make things better in the future.

As a technology analyst, I am frequently in touch with CEOs, CIOs and other decisions makers from organizations of any size. During advisory sessions and workshops, digitization is the hot topic to discuss for the last 5+ years. However, after a short period of time, the majority of decision makers start defending themselves, claiming their organization is already digital for quite some time. They are digital by providing their employees with software applications, desktop computers, smartphones, tablet computers or running networks of servers and so on. Well, on the one hand they are right. On the other hand, they express that they did not understand what digitization really means today. And thus, why companies like Amazon, Google, Alibaba and so on are out of their sight and far ahead of the competition. However, the success of Google, Amazon, etc., are no overnight success stories but took at least 10 years or even longer. And this is why it is so important to consider what has happened in the past. Hint: Amazon was only a web shop some years ago. Now, it has multiple business units and is still growing by experiments and just tries if something potentially works.

Considering that in my opinion the term “digital transformation” is misleading. It is a digital evolution; every organization worldwide is faced with for already a long time. Based on my ongoing experiences above, I decided to write this piece to unveil the broken mindset of the old economy, by getting a wrong understanding of digitization and underestimating the impact of information technology (IT) and digital technologies for the business.

All in all, digitization is nothing new and has changed its face over the last decades. Digitization today is completely different from digitization in the 1980s or the 1950s when the first microprocessor hit the market. However, the digital evolution has every organization over a barrel. And each company needs the necessary fundamentals in order to adapt this ongoing progress and achieve change inside the entire organization.

It’s a Digital Evolution, not a Transformation

“Digitization is changing everything.” This is a statement you might have heard sufficiently the last months and years. A statement that is absolutely wrong. It reflects a false attitude and misunderstanding of the market and its people who claim this statement. It is wrong because digitization already has changed everything!

Exactly this perception of digitization leads to the misconception by comparing digitization with the popular used but misleading term “digital transformation”. However, it might be because over the last three decades, IT departments worldwide have developed, introduced, updated and detached vast quantities of IT systems. They have digitized their organizations by introducing all kinds of IT solutions, like ERP and CRM systems, office solutions or self-developed applications. The IT department was the maintenance crew of the digital engine room, no colleague wanted to deal with respectively was able to deal with. Thus, IT solutions have simply been used by many people but obviously not considered as digital technologies.

Today, everything is believed to be completely different. Due to “consumerization of IT” and the easy access to IT resources, everyone is able to use e.g. an iPhone or get access to any kind of application via software as a service (SaaS). Hence, thanks to “consumerization of IT” digital technologies became more and more ubiquitous and came onto the radar of people who normally only have been in touch with digital technologies at work. Eventually, digital systems have been introduced and maintained over the last 30 years. Indeed, the term “digital transformation” is a little bit confusing, especially if someone is working in IT for decades and has seen all of its developments.

The term digital transformation is misleading because digitization is a continuous development process and must be considered as a progress. It is digital evolution!

The Digital Evolution, Step by Step

Digitization is hassling leadership teams by letting them challenge the existing business model and reinvent oneself to confront the competition with a digitized organization. Apart from that the leadership’s task is to develop a unique digital agenda they can leverage to highly interconnect with customers, partners and suppliers and therefore redefine all necessary processes, understanding them as an essential part of a digital enterprise. In doing so, it is important to put the customer tenaciously into focus of interest. Based on smart products and AI technologies, organizations are able to get a better understanding of their target groups and to spot the current needs and thus act proactively. These include the development of “data driven apps” to raise as much qualitative data as possible and to use it at the scene of event (digital touchpoint) in order to increase the digital user experience for customers as well as partners and suppliers.

However, talking digitization means talking about a digital evolution and not a transformation. We are within a digitization process that has started around 50 years ago when Intel introduced its “Intel 4004” processor in series and SAP, Microsoft or Apple were founded. In the meantime, you can find PCs or Macs in every office and the use of mobile devices is continuously growing. However, even after these 50 years not every process has been digitized so far and doing things for the sake of doing things is simply wrong.
Bottom line, we are already digital for 50 years. For example, without packet switching networks (introduced between 1965 – 1969), the Arpanet (introduced in 1969) and TCP/IP (both introduced in 1974), the Internet (introduced in 1990) wouldn’t exist. Without the Internet, Amazon (1994), Google (1998) and Co. wouldn’t exist. And without these companies, technologies like virtualization (introduced in 1964) or XEN (2003) and other Internet-related technologies, the cloud wouldn’t exist. And without the cloud the new hype around artificial intelligence (AI) wouldn’t exist. Because only the easy access to cloud-based innovative AI services (machine learning etc.) and the necessary and fast available computing power enable the developments of novel “intelligent” products, services and business models. However, at the same time, AI services ensure growth of public cloud providers. Thus, one can observe a “cloud-AI interdependency.”

On a final note, Netflix is one of the prime examples of the digital evolution. Netflix was founded in 1997 as a DVD shipping company (using the Internet) exclusively for US customers. But shortly after Amazon introduced its cloud business Amazon Web Services (Amazon EC2 in 2006), Netflix launched its streaming service in 2007 and thus changed its business model. This transition was a major evolutionary step. First of all, Netflix not only understood the growing power of the Internet and thus to reach a much bigger customer base by serving a global audience. But most importantly, Netflix saw the technological potential of the cloud to execute this huge business opportunity.

Evolution means to be able to adapt to ever-changing living conditions. It’s about mutability. Or in other words: eat or be eaten. This is exactly what the nature is showing us.

Netflix has changed because the environment around the company has started to change. For example, many companies have only used the Internet e.g. for hosting a website (using it to market their existing products). But no one from the pre-Internet era used the Internet early to develop new things by using the Internet. Only a few respectively only new companies like Google, Amazon, Spotify or Netflix saw the potential of the Internet and developed the Internet further by introducing new ideas, offerings and services.

Netflix is a good example showing that evolution always wins. But this includes to change the own mindset.

The Digital Enterprise Evolution

The digital enterprise has quite a long history. As a matter of fact, everything started in the 1950s – around 70 years ago. To get a better understanding of the digital enterprise evolution it’s easier to cluster this progress into four phases, starting in 1950.

Pre-Digital Enterprise

The decades from 1950 until 1969 can be described as Pre-Digital Enterprise era. These were the years of all the necessary groundwork and fundamental research and development for building the digital enterprise. In the course of this epoch the first high-level programming languages like FORTRAN, COBOL, BASIC and the compiler-compiler have been developed. The UNIVAC hit the market, which was the first commercially successful electronic computer and is regarded as the first general purpose computer. The introduction of the UNIVAC marked the ultimate beginning of the computer era. Terminal systems that were organizations-wide connected to a central computing system (mainframe) are introduced that used a timesharing concept to get equal access to computing power. The development of the UNIX operating system started, which was the foundation for Linux that powers 36.9 percent of today’s websites worldwide (as of October 23, 2017). However, one of the key milestones of this epoch was the development of ARPANET, which is the fundamental basis for what today shapes the Internet.

Digital Enterprise 1.0

The years between 1970 until 2000 shaped Digital Enterprise 1.0. This epoch signifies the introduction of information technology (IT) into the organization across all departments. And thus, giving employees access to IT providing them with personal computer (PC), other hardware like printers and software applications. In the course of this decades, Intel started producing its first microprocessor “Intel 4004” in series and today’s IT giants like SAP, Microsoft or Apple have been founded. The programming language C was developed, and Texas Instruments released the first portable electronic calculator. The programming language Prolog introduced a paradigm shift of logical programming, which is used for developing expert systems and artificial intelligence (AI) solutions.

The development of Ethernet (1980) was another major milestone, which became the common standard of connecting PCs and other hardware devices such as printers, let them interact and share data. As a matter of fact, organizations started connecting group of machines like PCs, servers etc. and thus created local area networks (LAN) and after that connecting domestic and international branch offices using wide area networks (WAN). LANs, WANs and the development of the TCP/IP protocol suite were the foundation for client-server architecture. In a client-server model, one or more central computers (servers) are acting as a resource provider e.g. a data storage device (like file server, database server) and providing client computer with software applications (e.g. application server) and other services. Client-server computing itself was the basis for the so-called enterprise computing – the professional usage of IT inside organizations rather than private users.

The most important milestone of this epoch, however, was the invention of the World Wide Web (WWW) to make documents and information accessible worldwide and across different types of computer systems. The integration of several developments such as ARPANET, TCP/IP, client-server model, networking, telecommunications, hypertext, WWW and more formed the Internet. However, the majority of companies have only used the Internet e.g. for hosting a website and to market their existing products and content, but actually no one from the pre-Internet era developed new things and services using the Internet and thus didn’t help to put progress into the development of the Internet.

In 2016, the estimated total number of Internet users was 3.431 billion (47 percent of world population (7.3 billion people)). In fact, the Internet was the driving force behind the fundamental development of search engines (e.g. Google) and helped shaping the e-commerce business (e.g. Amazon and Alibaba) as well as led to several new digital-ish business models. As a consequence, the Internet is considered as the foundational success story of the so-called platform companies (aka platform economy).

Digital Enterprise 2.0

Between 2001 and 2015 the years of Digital Enterprise 2.0 arose. This was the time when the famous buzzword digital transformation hit the media landscape and the majority of organizations worldwide finally realized that IT was more than just a supporting tool but to understand it as a central part of their business strategy. However, the significant characteristics of this epoch was the high-degree of interconnection between organizations and their customers, partners and suppliers, creating integrated ecosystems – and this systematically supported by IT solutions. By doing this, organizations started making use of technologies e.g. like mobile computing, cloud computing, web-centric architectures, software-defined environments, Internet of Things (IoT), social media and API economy and thus ensuring a better interconnection within inside as well as outside the company, across different industries and beyond borders.

Needless to say, the fast development of the IT industry helped a lot of companies, in particular, startups and digital natives building businesses upon digital disciplines. In the process, mobile computing (like RIMs BlackBerry, Apple’s iPhone and iPad, Google’s Android) served customers with information, apps and services at the scene of the event by creating a digital touchpoint without being limited of a certain place but create a mobile user experience on the go. Web-centric architectures based on software-defined environments and cloud computing supported this movement, by shifting infrastructure (IaaS), platform (PaaS) and software (SaaS) to a central place that can be accessed with an ordinary data connection via an as a service approach. In particular, the cloud helped startups avoiding heavily upfront investments in IT resources but purchase the needed resources on an on-demand base. Thanks to Amazon respectively its cloud computing subsidiary Amazon Web Services (AWS), startups like Pinterest, Spotify or Airbnb were able to gain quick success utilizing public cloud services and wouldn’t exist without it. However, the cloud helped organizations of any size getting quick access to state of the art technologies and innovative services, reach a global audience, operate scalable IT environments, but also shift their IT spending’s from capex to opex model.

The cloud is one of the most important drivers of the digital evolution. Only with the use of dynamic and global scalable infrastructure, IT organizations can face the constantly changing market conditions and thus support their business strategy with a better agility. Cloud environments provide the best preconditions to facilitate the digital strategies of organizations of any size. Start-ups benefit by starting from scratch and do not have to consider a legacy IT. They can grow slowly without heavy static investments in IT resources. As part of their digital evolution established companies in particular need speed to keep up with the ever-changing market conditions. An idea is just the beginning. Most commonly the fast go-to-market fails due to technical execution because of slow deployments of IT resources or the lack of modern tools and services that support the development process. Cloud infrastructure and platforms empower IT organizations to deliver agility and thus support the business to enhance innovation capabilities. This includes:

  • Access to state-of-the-art technologies and higher-level services to develop new digital products and services
  • Affordable test and development of PoCs
  • Improvement of customer experience by developing new customer facing solutions to enhance the customer engagement
  • Closer integration of the entire process and supply chains within the organization as well as with partners and suppliers
  • Acceleration of release cycles (continuous development and deployment)

Another important fact: Organizations cannot just focus on their home market anymore. Driven by globalization that hits its climax with the digitization of our society, scalability also needs to be considered from a global angle. The cloud enables elastic infrastructure operations and supports global expansion in an easy way with:

  • Flexible access to IT resources without limits
  • On demand usage of infrastructure, platform, software and services
  • Overcome technical challenges like avoiding high latency
  • Fulfill legal requirements in the corresponding target market
  • Worldwide customer reachability

As part of digital strategies, the cloud became more and more important. It served as the ideal foundation for a straightforward access to IT resources and empowered every organization to act in an agile way. As a technological foundation, it served as a means to an end and enabled the access to ongoing innovation such as AI-related services.

Along with the mobile and cloud movements, the Internet of Things (IoT) became more and more popular and arose as one of the driving mega-trends of Digital Enterprise 2.0. The IoT connects the digital with the analog world by seeking for a maximum interconnection and the highest possible information exchange. It describes the linkage of physical objects such as cars, industrial facilities, household items and many other sensors, as well as humans with digital services via a data connection. The IoT dismantles existing data silos, enables access to novel data sources and hence opens organizations entirely new business opportunities. Thanks to cloud computing, mobile solutions, wireless connections and big data analytics, the (technical) efforts and (investment) costs for necessary IT solutions dropped significantly. There is also the fact that the costs for sensors and devices are getting cheaper, which makes it more reasonable to collect and analyze data of any device at any time and location.

Organizations preferentially make use of real-time analysis to identify and proactively react to trends inside datasets by combining IoT and big data analytics. For example, to get better insights of their customers and thus to send them current and tailored service offerings directly onto their smartphone or wearable that exactly fit to the current context of their activity. Other use cases can be find in transport and logistics. Here, IoT and analytics help to optimize the arrival time of deliveries or to improve the carbon footprint based on data pattern analysis. In general, IoT application areas and capabilities are nearly infinite. These include:

  • Improvement of marketing activities by a more intense monitoring of people’s behavior, of things and data based on the analysis of the time and location where objects are located and act. These include e.g. location-based advertisement and the analysis of buying behavior across a variety of stores (businesses).
  • Enhancement of reactions to certain situations in real-time. This includes e.g. the control of transport routes based on distinct variables like weather, gas consumptions or soft factors like possible perils.
  • Support of decision-making by sensor-based analytics based on profound analysis like the perpetual monitoring of patients for a better treatment.
  • Higher automation rates and better control for the optimization of processes and a better resource utilization (e.g. smart metering) as well as for risk management systems.

During this epoch, the collection and analysis of data proliferated. Depending on the organization, this was from plain harvesting of data up to utilize data for business process optimization, evaluate new business opportunities or develop new business models. With the soaring amount, variation and velocity the data arrived, traditional infrastructure quickly reached their maximum scalability. All applications, which evolutional behavior was strictly encapsulated befell the same destiny since these were not able to dynamically keep pace with the rising requirements of the business. In order to meet the increasing challenges of IoT workloads and growing sensor and meta data new agile platforms and massive scalable infrastructure were necessary. Standardized toolkits and interfaces helped with the quick introduction of powerful IoT workloads and ensured a stable communication between applications, services, sensors, platforms, dashboards as well as the collection, analysis and preparation of data.

Another mega trend that reflects the impact of a high degree of interconnection for Digital Enterprise 2.0 is social media. The fundamental idea of social media is to bring people together via Internet-based services. Thus, when people used those Internet-based applications, they interacted with highly dynamic platforms such as blogs, microblogs, forums, social networks, business networks, video/ photo sharing and gaming sites. Using social media services through a web-browser via their desktop PCs and laptops or via native mobile applications on their smartphone and tables, they participate in a world of user-generated content by writing posts or comments, sharing photos, videos or simply share their thoughts or what they are doing at a very moment. Based on their interests and behavior social media sites connected user profiles with other individuals or groups and thus creates a social network.

Social media differs from traditional media like magazines, newspapers or TV in lots of ways. This includes quality, usability, reach, frequency and interactivity. Social media operates in a highly dialogic system, where many sources are connected to many receivers. These characteristics, however, had a substantial impact of the communication between organizations, their customers, communities and other individuals. Understanding and thus doing social media the right way, it can help to improve the connection with customers and groups of individuals and can be a powerful communication and marketing tool for businesses and organizations. With that said, social media services enable organizations to reach a broader, even global audience and engage with them in a direct and much closer way by understanding and analyzing their ways of thinking and acting and hence enhance the customer experience.

On the one hand, engaging with social media services, people get more power by praising or complaining in public to a much broader audience about a brand, product or service. However, on the other hand, individuals are becoming more transparent to the social media platforms and organizations that target these individuals, by sharing more and more personal information and behavioral pattern.

Some of the most popular social media sites are Facebook, Instagram, LinkedIn, Pinterest, Reddit, Snapchat, Tumblr, Twitter, WeChat, Weibo, WhatsApp, Wikipedia and YouTube. As of November 2017, the biggest social media sites together have more than 100,000,000 registered users. Social media plays an important role as part of the high degree of interconnection era for organizations to engage and interact with e.g. customers in a much deeper way.

In Enterprise 1.0, enterprise application integration (EAI) was the central anchor as part of client server communication to ensure business process integration within the whole value chain. The focus was on the tight interaction of a variety of applications that are distributed over several independent operated systems. The goal: the uniform and integrated mapping of all business processes in IT applications and thus to avoid data silos. However, the transition into the cloud age lead to a change in the usage behavior of on premise interfaces to a mainly consumption of web APIs. Eventually, each cloud and web services provider offer a REST or SOAP based API that enables to integrate services in the own application and thus benefit directly from external functionality. Along with the increasing consumption of cloud services and the ever-growing momentum of the Internet of Things, the importance of APIs rose significantly.

Another important trend of Digital Enterprise 2.0 was the API economy. The API economy describes the increasing economic impact of APIs. Digital natives such as Google, Amazon or Facebook used the API economy and monetized their services by offering APIs to give external users access to their services. Openness is an important part of the API economy. Google understood this from the very beginning by position itself as an open platform. Important to know, openness in the context of providing access to its own services via APIs. In his book „What Would Google Do?“ Jeff Jarvis illustrates how Google – based on its platform – enables other companies to build own business models. Not without a cause – of course. This kind of openness and the right use of the API economy quickly lead to dissemination and made Google to a cash cow – e.g. via advertising.

The API economy quickly lead to an increasing number of Mashups. In IT, a mashup describes a web application, which uses services from more than one source to build a complete new application or service. For example, Uber has integrated Google Maps into its mobile application to order a ride and set the pick-up location. Another example is Netflix that leverages Amazon Web Services (AWS) cloud services portfolio to develop and run its video streaming service on top of AWS. Electronic commerce company Zalando used the API economy externally as well as internally. Zalando builds and operates big parts of its infrastructure on top of AWS. In doing so, Zalando designed the entire environment based on a loose-coupled micro services architecture. Each micro service is developed and maintained by a single team of developers that operates its own virtual datacenter. As of 2016, Zalando runs over 60 virtual data centers. All micro services, that together assemble the e-commerce website, access each other via their public APIs.

The cloud native Internet companies reflect this trend. APIs are still a central competitive factor for players like Salesforce, Twitter, Google, Amazon and Amazon Web Services and represent the lifeline of their success. All providers have created an own API ecosystem around them, which is used by their customers and partners to develop own offerings.

Thanks to mobile, social media and cloud services, APIs are no longer exclusively popular among developers but also found their ways on the memos of CEOs and CIOs who identified the financial impact. Providers typically benefit from APIs by:

  • Selling premium functions inside a free of cost service.
  • Charging the sharing of content through an application or service of a partner.

CIOs benefit from the API economy by getting access to a quasi-endless choice of applications and services they can use to expand their websites, applications and systems without developing, operating or even maintaining these functionalities on their own. Furthermore, APIs enable partner, customers and communities to get an easy access to own applications, data and systems to let the CIO’s company become a part of the API economy. Everything works using pretended simple API calls. However, the devil is in the details. Integration and API management have a big significance in the API economy.

However, the vast majority of organizations worldwide are still a Digital Enterprise 2.0, trying to challenge their existing business model and reinvent oneself to confront the competition with a digitized organization. Apart from that the leadership’s task was to develop a unique digital agenda they can leverage to highly interconnect with customers, partners and suppliers and therefore redefine all necessary processes, understanding them as an essential part of a digital enterprise. In doing so, it is important to put the customer tenaciously into focus of interest. Based on smart products and artificial intelligence technologies, organizations are able to get a better understanding of their target groups and to spot the current needs and thus act proactively. This includes the development of data driven apps to raise as much qualitative data as possible and use it at the digital touchpoint in order to increase the digital user experience for customers as well as partners and suppliers.

The fact of the matter is that the entire supply chain needs to become much more agile to be ahead of competition. This is about real-time! In the best case, organizations know already one hour or even earlier what a customer is going to need. In other words: predictive analytics is becoming continuously more important. It is necessary to decrease set-up times for machines, to interconnect the entire supply chain and to scale with the help of the cloud. Because one simple fact reflects this epoch of digitization: markets are not predictable and thus the set-up times had to become faster.

Digital Enterprise 3.0

Starting in 2016 and still in being is the time of Digital Enterprise 3.0. This epoch is defined by platform-based concepts and businesses as well as a strong data-economy that is powered by AI-driven services and products. However, as of today (April 2018) only a fraction (1-2 percent) of companies worldwide can be considered as Digital Enterprise 3.0. Significant parts of this epoch are developments of end-to-end service offerings and thus to control the entire (service) value chain. Amazon is one of the few trailblazers and a prime example of a Digital Enterprise 3.0. Started as a simple web shop, right now Amazon would only need an own music label to control almost 100 percent of the world’s digital value chain of goods. Just consider Amazon Video:

  • Amazon produces own movies and series (that already won Golden Globes and Oscars)
  • Amazon operates its own infrastructure to run and deliver the videos (Amazon Web Services)
  • Amazon has the own platform to stream the videos (Amazon Video)
  • Amazon controls the distribution channels via apps (multi OS) and own devices (Kindle)

Another prime example is Vorwerk’s Thermomix. Originally introduced in 1971 the kitchen appliance was continuously advanced over the last over 40 years until 2014 when the latest version TM5 hit the market. One of the important things of this model is that it incorporates digital technologies, as it allows for “guided cooking” using proprietary memory chips to provide settings and cooking instructions and has replaced all the buttons and knobs in previous models with a touch screen. Furthermore, a mobile application allows to plan for the week (month) and communicates with the Thermomix. A new Wi-Fi module replaced the memory chips and lets the Thermomix connect to the cooking experience website Cookidoo where the Thermomix gets access to the recipes. Bottom line, Vorwerk was able to advance and even digitize a product that is over 40 years old and thus understood to align its product as part of the digital evolution.

Along with end-to-end offerings, a sophisticated interconnection based on Internet of Everything (IoE) is imperative for this epoch. Here, a very dense interconnection across people, devices, objects and locations helps to provide customers with tailor-made solutions and services at the scene of event respectively the hybrid touchpoint and thus connects the digital with the analog world even stronger. For example, even if location-based services are a trend from Digital Enterprise 2.0 that has been discussed for quite a long time. However, it actually hasn’t being used e.g. by local retailers to engage with their customers.

The sophisticated interconnection is heavily supported by a context economy based on data and knowledge. In 2017, this happened in the Internet within 60s seconds (Source: @LoriLewis & @OfficiallyChadd):

  • 3.5 million searches queries on Google
  • 900,000 Facebook logins
  • 16 Million text messages
  • 4.1 million views of YouTube videos
  • 342,000 app downloads
  • 46,200 post uploads on Instagram
  • 452,000 tweets send on Twitter
  • 156 million sent emails
  • 40,000 hours listened on Spotify
  • 70,017 hours watched on Netflix
  • $751,522 online spending’s

With the ever-growing use of smartphones and other mobile devices, our digital society reached a point where we are actually not able to not provide data anymore. And even if we do not tweet, search or do other things actively online, we – or better our devices – are constantly sending data. Like locations or other data from us. For a digitized organization this means that based on mobile technologies as well as data, information, knowledge and opinions it is becoming much easier to get in touch with a group of target customers and thus enhance the customer engagement.

As a Digital Enterprise 3.0, organizations also participate in an AI-defined world where intelligent or smart environments make our everyday life more efficient and convenient. If you look at AI from a different angle. Consider our life as a process. Consider every day as a process that is divided into single steps. And then, consider AI as autonomous process automation that provides us with more convenience and thus makes our life easier. Imagine a virtual private assistant like Amazon Alexa or Apple Siri as personal watchdog in business. Checking your phone calls, autonomously negotiating appointments with e.g. colleagues. I am talking about a very early version of Iron Man’s AI “Jarvis”. Or what about Alexa or Siri as your very personal life assistant. Let’s say you are speaking at a conference. Your flight home leaves at 4PM. In order to reach your flight on time, your personal life assistant autonomously orders you a ride for 2:15PM since your speech ends at 1:45PM and the traffic information looks busy today. The virtual assistant just sends you the details of the pickup location which is right in front of the conference venue. The assistant simply follows the entire process you would usually go through: from taking the phone out of your pocket, opening the app, searching for the target location and then ordering the ride. So, keep your hands and mind free for more important things. Of course, you have to give the AI access to your calendar, geo location and other information. Or imagine an intelligent version of the kitchen aid “Thermomix”. The dish advisor: Based on what the kitchen helper finds in your fridge it makes recommendations what you could possibly cook. And when some ingredients are missing it could ask for permission to order them online. The health advisor: Based on your eating behavior of the last weeks it would nicely recommend you not to cook the tiramisu you were just about to prepare, because this wouldn’t be good for your consumption of calories.

However, also organizations need to understand AI as the future of any digital business. Imagine when anything that is a process can and will be run by an AI. Because, with AI anything that is a process in your company can be automated. This is an important fact on your journey to new business models since an AI-operated business empowers you to use your financial resources and talent much more effectively. AI is the next logical step after the cloud and benefits from its success. The cloud is the enabler from a technological perspective. AI is about the business value and thus leads to smarter and more intelligent applications. Based on a sophisticated data analysis, AI applications that run in the background help to refine the customer approach and tailor products even better to the current needs.

An AI runs the business operations more intelligent and hereby efficient. As part of a Digital Enterprise 3.0 strategy, AI empowers organizations to improve its operations with:

  • A better understanding of customers based on past interactions and behaviors.
  • A fancy experience of changing the customer interaction from keyboard entry to speech control.
  • Deeper engagement with smart virtual assistance enhancing the customer experience.
  • Customized products and service offerings aligned with customer needs.
  • Predictive by analyzing data, interactions and behavior from the past and in real-time.
  • Conversational with smart personal assistants and bots.
  • Augmentation of existing and new products, services, applications and processes.

However, the potential of AI is not just simply to optimize existing processes. In the next decades, AI will become the game changer! It will accelerate innovation and lead to new business models. Today, AI applications already have the necessary maturity to increase the efficiency of single processes. However, one should not only see AI from an operational perspective to increase efficiency but also from a strategic angle in order to leverage the technological capabilities for new applications and use cases. And thus, create real values for customers, partners as well as for the own employees.

It’s about Digital Correlation

Digital technologies such as artificial intelligence, cloud computing or IoT are the foundation for innovation and new business models that will change common rules and thus lead to ongoing disruptions within and across industries. In doing so, enhancing the customer experience by addressing their needs is crucial and thus constantly raises the customer expectations. Amazon, Google, Netflix, Spotify, Uber or Airbnb are just some examples.

The next disruptors are right on your doorstep. The autonomous car will become a reality – the technological perspective is not the issue, but we have to see how everything will be handled from an ethical side. This progress will have a direct impact on the retail, hotel and logistics industry. Just think about a network of self-driving cars that autonomously deliver goods to the customer. And then think about one of these self-driving cars being your private car that you can lend to this delivery network when you are at the office – and you getting a share of the revenue. Or think about an autonomous car/ bus that functions as a hotel room as well – like an “Airbnb to Go.”

It doesn’t matter in which industry you are working right now. You should be at eye level with the common technologies and trends, even if you do not feel any impact at the moment. This includes to understand and check what a certain technology can do for your current business model or if it could become a threat that influences your company in a negative way. See the world of digital technologies this way:

  • The hype around artificial intelligence today wouldn’t exist without cloud computing.
  • The Internet of Things wouldn’t work without cloud computing and edge computing.
  • The cloud wouldn’t work without virtualization and software-defined environments.
  • Etc.

Bottom line, If the majority of existing companies would have understood the power of the Internet in the 90s and the potential of cloud and mobile in the 2000s, the market would look quite different today. So, please don’t underestimate the impact of AI!

Joining Gartner as Research Director for Infrastructure Services & Digital Operations

$
0
0

On May 1 2018, I’ve joined Gartner Inc. – the worldwide leading analyst firm – as a member of the Managed Business & Technology Services team. In my role as a Research Director, I am covering Infrastructure Services & Digital Operations. To engage with me, feel free to schedule inquiry calls (inquiry@gartner.com), follow me on Twitter (@ReneBuest) or connect with me on LinkedIn or XING. I am looking forward to talking to you!

Please note, I am no longer updating my blog AnalystPOV and my Medium account.

AI wird zum Game Changer in der Public Cloud

$
0
0

Ohne Cloud Computing wäre der aktuelle Hype um Artificial Intelligence (AI) nicht möglich. Erst der leichte Zugang zu Cloud-basierten innovativen AI-Services (Machine Learning etc.) und die dafür notwendige und schnell zur Verfügung stehende Rechenleistung, ermöglichen die Entwicklung neuer „intelligenter“ Produkte, Services und Geschäftsmodelle. Gleichzeitig sorgen AI-Services für weiteres Wachstum bei den Public Cloud-Anbietern Amazon Web Services, Microsoft und Google.

Cloud Computing hat sich in den vergangenen 10 Jahren zu einem ertragreichen Geschäft für Anbieter wie Amazon Web Services oder Microsoft entwickelt. Doch der Wettbewerb wird durch Nachzügler wie Google und Alibaba immer stärker. Mit der massiven Einführung von AI-bezogenen Cloud-Services haben die Anbieter den Wettbewerbsdruck selbst nochmal einmal erhöht, um die Attraktivität bei den Kunden zu erhöhen.

Die Cloud stützt AI… und umgekehrt

Für kleine und mittelständische Unternehmen kann der Aufbau von performanten und skalierbaren AI-Systemen schnell zu einer teuren Angelegenheit werden. Schließlich benötigt das Training von Algorithmen und der spätere Betrieb der entsprechenden Analytics-Systeme Unmengen an Rechenleistung. Im eigenen Keller, Serverraum oder Rechenzentrum ist es unmöglich die dafür benötigte Rechenkraft rechtzeitig und punktgenau bereitzustellen. Welche, nebenbei bemerkt, anschließend in der Regel nicht mehr benötigt wird.

Begibt man sich in die Sphären von Amazon, Microsoft oder Google, haben alle drei in den vergangenen Jahren riesige Mengen an Rechenleistung aufgebaut und besitzen gleichermaßen einen großen Anteil an der 40 Milliarden Dollar schweren Cloud Computing Industrie. Für alle drei handelt es sich bei der Erweiterung ihrer Portfolios mit AI-Services um den nächsten logischen Schritt in der Cloud. Einerseits, da die Entwicklung von AI-Anwendungen bzw. die intelligente Erweiterung von bestehenden Anwendungen den leichten Zugang zu Rechenleistung, Daten, Konnektivität aber vor allem additive Platform-Services erfordert. Andererseits, um die Attraktivität bei Bestandskunden zu erhalten und Neukunden zu gewinnen, welche immer stärker nach einfach zugänglichen Lösungen suchen, um AI in ihre Anwendungen und Geschäftsmodelle zu integrieren.

Amazon Web Services

Amazon mit Amazon Web Services (AWS) ist nicht nur Cloud-Pionier und Innovationstreiber, sondern weiterhin mit Abstand der Marktführer im weltweiten Public Cloud Markt. Auf Grund seiner Skalierbarkeit und dem umfangreichen Angebot an Platform-Services ist AWS derzeit die führende Cloud-Umgebung für die Entwicklung und der Bereitstellung von Cloud- und AI-Anwendungen. Im Rahmen der vergangenen re:Invent präsentierte AWS unter anderem Amazon Cloud 9 (durch Akquisition von Cloud9 IDE Inc. im Juli 2016), eine Cloud-basierte Entwicklungsumgebung, welche direkt in die AWS Cloud-Plattform integriert ist, um Cloud-native Anwendungen zu entwickeln. Weiterhin wurden sechs „Machine Learning as a Service“ (MLaaS) Dienste angekündigt, u.a. ein Videoanalyseservice sowie ein NLP-Service und ein Übersetzungsservice. Zudem bietet AWS mit MXNet, Lex, Rekognition und SageMaker mächtige Services für die einfache Entwicklung von AI-Anwendungen. Insbesondere SageMaker gilt Beachtung zu schenken, mit welchem sich der gesamte Lebenszyklus einer Machine Learning-Anwendungen steuern lässt. Wie bei allen Cloud-Services verfolgt AWS allerdings auch im AI-Bereich den Lock-In-Ansatz. Alle AI-Services sind sehr eng mit der AWS-Umgebung verzahnt, um sicherzustellen, dass AWS nach der Entwicklung der AI-Lösungen auch die Plattform für deren späteren Betrieb bleibt.

Auch hinsichtlich der Strategie bleibt Amazon seinem Erfolgsmodell treu. Nachdem Amazon die Technologien hinter seiner massiv skalierbaren eCommerce-Plattform als Services via AWS der Öffentlichkeit zur Verfügung gestellt hat, folgen nun z.B. die Technologien hinter Alexa, damit Kunden eigene Chatbot oder Sprachassistenten in Ihre Angebote integrieren können.

Microsoft

Auf Grund seiner breiten Kundenbasis im Unternehmensumfeld und seinem umfassenden Portfolio an Cloud- und AI-Services hat Microsoft grundsätzlich gute Voraussetzungen, sich auch im AI-Umfeld als eine führende Größe zu etablieren. Insbesondere durch das umfangreiche Angebot an Produktivitäts- und Geschäftsprozesslösungen stehen für Microsoft die Zeichen gut, um bei Unternehmensanwendern oben auf der Agenda zu stehen.

Microsoft steckt mit Produkten wie Windows, Office 365 oder Dynamics 365 mitten im digitalen Ökosystem vieler Unternehmen weltweit. Und damit genau an einem Punkt, wo sich exakt die Daten befinden bzw. Datenflüsse stattfinden, die genutzt werden können, um Machine Learning Algorithmen zu trainieren und Neuronale Netze aufzubauen. Microsoft Azure ist der zentrale Hub wo am Ende alles zusammenläuft und die dafür notwendigen Cloud-basierten AI-Services zur Verfügung stehen, um die AI-Strategie umzusetzen.

Google

Was die Cloud betrifft, hängt Google weiter hinter AWS und Microsoft hinterher. Allerdings könnte AI hier zum Game Changer werden. Vergleicht man zwar aktuell Googles AI-Service-Portfolio mit dem von AWS und Microsoft, dann lässt sich festhalten, dass Google der Laggard unter den innovativen Anbietern von Public Cloud- und AI-Services ist. Vor allem, wenn man Googles AI-Investitionen von 3,9 Milliarden US-Dollar betrachtet. Im Vergleich dazu hat Amazon bisher nur 871 Millionen US-Dollar und Microsoft nur 690 Millionen US-Dollar in AI investiert. Bei Google mangelt es halt an der konsequenten Exekution.

Aber! Google hat bereits weltweit über 1 Million AI-Nutzer (überwiegend durch die Akquisition der Data Science Community „Kaggle“) und besitzt extrem viel AI-Know-How (u.a. durch die Akquisition von „DeepMind“). Zudem gilt Google unter Entwicklern als die leistungsstärkste AI-Plattform mit den fortgeschrittensten AI-Tools. Zudem ist TensorFlow die führende AI-Engine und für Entwickler die wichtigste AI-Plattform, mit welcher schon zahlreiche AI-Projekte umgesetzt wurden. Weiterhin hat Google mit den Tensor Processing Units (TPUs) eigene Prozessorchips entwickelt, die speziell für den Einsatz mit TensorFlow abgestimmt sind. Mit Cloud AutoML hat Google erst kürzlich einen MLaaS-Dienst angekündigt, mit dem auch unerfahrene Machine Learning Entwickler eigene Deep Learning Modelle bauen können.

Wenn man sich dann noch vor Augen hält, wo Google u.a. mit dem Android OS seine Finger im Spiel hat (z.B. Smartphones, Haushaltsgeräte, Smart Home oder Autos), wird das Potenzial der AI-Services auf der Google Cloud Platform deutlich sichtbar. Der einzige Wehrmutstropfen besteht – weiterhin – darin, dass Google nur Entwickler bedienen kann. Der ausschlaggebende Zugang zu Unternehmen, wie Microsoft ihn besitzt, fehlt immer noch.

AI wird der Game Changer in der Public Cloud

Der Markt für AI-Plattformen und AI-Services befinden sich derzeit noch in der Anfangsphase. Doch mit dem wachsenden Bedarf, ihren Kunden intelligente Produkte und Services anbieten zu wollen, werden Unternehmen dazu übergehen, sich Unterstützung zu suchen. Und Fakt ist, dass nur der leichte Zugang zu Cloud-basierten AI-Services und die dafür notwendige und schnell zur Verfügung stehende Rechenleistung, die Entwicklung neuer „intelligenter“ Produkte, Services und Geschäftsmodelle ermöglicht. Für Unternehmen macht es daher keinen Sinn, AI-Systeme In-House aufzubauen, da sich diese dort u.a. nicht performant und skalierbar betreiben lassen. Zudem sollte der Zugriff auf die Endgeräte und die weltweit verteilten Daten, die ausgewertet werden müssen, nicht vernachlässigt werden. Das ist nur durch weltweit skalierte und gut vernetzte Cloud-Plattformen möglich.

Für die Anbieter könnte AI zum Game Changer in der Public Cloud werden. Nachdem AWS und Microsoft das Feld anführen, hat es Google bis heute dort nicht geschafft, signifikant Boden gut zu machen. Mit seinem AI-Portfolio könnte sich das aber ändern. Vor allem TensorFlow und die Beliebtheit und Entwicklern spielt Google dabei in die Karten. Aber hier sind AWS und Microsoft bereits auf der Hut und gehen sogar gemeinsam dagegen vor. Mit „Gluon“ haben beide zusammen eine Open-Source Deep Learning Bibliothek entwickelt, die sehr ähnlich funktioniert wie TensorFlow. Zudem muss man AWS und Microsoft zusprechen, dass sie ein breites Angebot von AI-Engines (Frameworks) unterstützen und eben nicht nur TensorFlow.

Ob Google damit AWS einholen wird, das bleibt zu bezweifeln. Aber Microsoft könnte schnell den Atem zu spüren bekommen. Für Microsoft wird es ausschlaggebend sein, wie schnell Unternehmenskunden von dem AI-Service-Portfolio überzeugt werden können und ob währenddessen das Verständnis vermittelt wird, andere Microsoft Produkte und Services (z.B. Azure IoT) in die AI-Strategie mit einfließen zu lassen. Amazon wird mit seiner dualen Strategie, dem Fokus auf Entwickler und Unternehmen, den Public Cloud-Markt auch weiterhin anführen und die Heimat für all diejenigen – insbesondere Cloud-nativen – AI-Nutzer sein, die nicht ausschließlich TensorFlow einsetzen wollen. Hinzu kommt die große und auf Innovationen ausgerichtete Kundenbasis, die zu verstehen weiß, welcher Nutzen von AI-Services ausgeht.

Interview mit Cloud Expo Europe

$
0
0

Im Oktober 2017 wurde ich im Rahmen der Cloud Expo Europe von Closer Still Media zum Thema “Digital. Cloud. AI-driven.” interviewed.

Rene Büst: „Künstliche Intelligenz wird der Game Changer“ (24. Oktober)

Die Herausforderungen für Unternehmen wachsen. Die Märkte sind zunehmend volatil, gleichzeitig gilt es schnell zu reagieren um im harten Konkurrenzkampf erfolgreich zu bestehen. Darüber hinaus erschweren Unsicherheit und Komplexität längerfristigen Planungen. René Büst, Director of Technology Research bei der arago GmbH, erklärt im Interview, auf was Unternehmen bei der Umsetzung digitaler Strategien besonderen Wert legen sollten.

Frage: Sie propagieren ein „Magisches Dreieck“ aus Cloud, Digitalisierung sowie Artificial Intelligence (AI) als Grundlage moderner Unternehmensstrategien. Was steckt dahinter?

René Büst: Das „magische Dreieck“ setzt sich aus den Ecken Digital, Cloud und AI-driven zusammen. Vereinfacht dargestellt sollte es so von oben wie folgt gelesen werden: „Sei digital“, „Nutze Cloud“ und „Erweitere mit künstlicher Intelligenz“. Ich sehe dieses Dreieck aktuell als die Grundlage moderner Unternehmensstrategien. Denn wenn Sie sich einmal erfolgreiche Unternehmen anschauen, dann setzten diese bereits seit über 20 Jahren auf digitale Technologien, haben ihre Technologie-Stacks kontinuierlich erweitert und hierbei das Geschäftsmodell hinterfragt, um zu verstehen, wie Technologien sie weiter nach vorne bringen. Diese Unternehmen haben als Pioniere frühzeitig begonnen, Cloud-Computing zu nutzen und sind ebenfalls die Vorreiter beim Einsatz von Artificial Intelligence, um ihre Kunden besser zu verstehen und diesen einen besseren Service zu ermöglichen.

Amazon ist das Paradebeispiel. Als einfacher Webshop gestartet, würde Amazon derzeit nur noch ein eigenes Music-Label benötigen, um nahezu 100 Prozent der digitalen Güter Ende-zu-Ende zu kontrollieren. Amazon Video ist dafür nur ein Beispiel:

  • Amazon produziert eigene Filme und Serien (die bereits Golden Globes gewonnen haben)
  • Amazon betreibt seine eigene Infrastruktur, um Videos abzuspielen und auszuliefern (Amazon Web Services)
  • Amazon hat seine eigene Plattform, um Videos zu streamen (Amazon Video)
  • Amazon kontrolliert die Distributionskanäle anhand von Apps (Multi-OS) und eigener Geräte (Kindle)

Die Cloud ist einer der wichtigsten Treiber der Digitalisierung. Nur mit dem Einsatz dynamisch agierender und global skalierbarer Infrastrukturen und Plattformen können Unternehmen ihre IT-Strategien an die sich ständig verändernde Marktbegebenheiten anpassen und die Unternehmensstrategie damit agiler unterstützen. Cloud-Infrastrukturen und Plattformen ermöglichen es IT-Organisationen Agilität bereitzustellen und die Innovationsfähigkeit eines Unternehmens zu erhöhen. Hierzu zählen:

  • Zugriff auf State-of-the-art Technologien und höherwertige Services, um neue digitale Produkte und Dienste zu entwickeln.
  • Kostengünstige Entwicklung und Tests von PoCs.
  • Verbesserung der Customer Experience anhand der Entwicklung neuer kundenzentrierter Lösungen, um die Kundenbeziehung zu optimieren.
  • Engere Integration der gesamten Prozess- und Lieferkette innerhalb der Organisation sowie mit Partnern und Lieferanten.
  • Beschleunigung des Release-Zyklus (Continuous Development und Deployment)

Artificial Intelligence ist die Zukunft für jedes digitale Unternehmen. Stellen Sie sich vor, dass jeder Prozess von einer AI gesteuert werden kann und wird. Denn mit einer AI lässt sicher jeder Prozess innerhalb eines Unternehmens automatisieren. Hierbei handelt es sich um einen wichtigen Aspekt auf dem Weg zu neuen Geschäftsmodellen, da eine AI-betriebene Organisation Unternehmen befähigt, finanzielle Ressourcen und Talent wesentlich effizienter einzusetzen. AI ist der nächste logische Schritt nach der Cloud und profitiert gleichermaßen von deren Erfolg. Die Cloud ist der Antrieb aus einem technologischen Blickwinkel. Bei AI geht es um den Mehrwert für das Unternehmen und führt zu intelligenteren Anwendungen. Auf Basis komplexer Analysen verfeinern AI-Anwendungen im Hintergrund die Kundenansprache und passen Produkte und Dienste besser an die jeweiligen Bedürfnisse an.

Als Teil der Digitalstrategie befähigt eine AI Unternehmen, ihren Geschäftsbetrieb und dessen Abläufe zu verbessern – u.a. durch:

  • Ein verbessertes Verständnis ihrer Kunden anhand von Interaktionen und des Verhaltens aus der Vergangenheit.
  • Eine neuartige Bedienung von Applikationen durch die Veränderung der Kundeninteraktion von der Tastatur- hin zur Spracheingabe.
  • Eine tiefergehende Kundenbeziehung anhand von “Advanced Virtual Assistants”, welche das Kundenerlebnis verbessern.
  • Kundenspezifische Produkte und Dienstleistungen angepasst an die Kundenanforderungen.
  • Vorhersagen durch Analysen von Kundendaten, -interaktionen und -verhalten aus der Vergangenheit und in Echtzeit.
  • Gesprächiger zu sein, anhand “Smart Personal Assistants” und Bots.
  • Erweiterung bestehender Produkte, Dienste, Anwendungen und Prozesse.

Eines sollte jedoch nicht vergessen werden. Bei AI geht es nicht nur darum, existierende Prozesse zu verbessern. In den kommenden 5 bis 10 Jahren wird AI zum Game Changer werden. Es wird Innovationszyklen beschleunigen und zu neuen Geschäftsmodellen führen.

Frage: Ein weiteres Schlagwort lautet „Green Blue Green Deployment“. Was verbirgt sich hinter dieser Strategie?

René Büst: Blue Green Deployment ist eine Strategie für die Bereitstellung und das Veröffentlichen von Software. Das Konzept basiert auf zwei separaten, aber produktionsfähigen Umgebungen, die in der Lage sind die jeweiligen Applikationen bereitzustellen. Die einzelnen Umgebungen werden als Blue und Green bezeichnet und sind im besten Fall identisch. Nur eine der beiden Umgebungen ist zu einem Zeitpunkt aktiv (Blue) und nimmt die Anfragen an die produktiven Anwendungen entgegen. Vor den Endpunkten jeder Umgebung befindet sich ein Router oder Load Balancer, um den Datenverkehr entsprechend an die aktive Umgebung weiterzuleiten. Wird ein neues Software-Release entwickelt, wird es zunächst auf der nicht aktiven Umgebung (Green) bereitgestellt. In einem Blue Green Deployment ist die nicht aktive Umgebung als die finale “Staging” Umgebung zu verstehen. Sie bildet die Produktionsumgebung (die aktive Umgebung) so nah wie möglich ab und wird gleichzeitig für den finalen Test genutzt. Sobald die neue Software-Version getestet wurde und als stabil gilt, kann das neue Release als produktive Version bereitgestellt werden, indem der Router/Load Balancer den Datenverkehr an die “Green”-Umgebung weiterleitet. Die vorherige aktive Umgebung (Blue) wird inaktiv und die vorherige Staging Umgebung (Green) wird zur produktiven Umgebung. Ab diesem Zeitpunkt ist die vorherige Software-Version zwar nicht mehr aktiv, aber weiterhin verfügbar. Sollte die neue Version unerwartete Anomalien oder ernsthafte Probleme zeigen, lässt sich der letzte Stand durch eine einfache Neukonfiguration beziehungsweise Umschalten des Routers/Load Balancers auf die alte Umgebung wiederherstellen.

Frage: Lohnt es aus Ihrer Sicht es sich noch für Unternehmen, eine eigene Serverinfrastruktur aufzubauen? Oder führt kein Weg mehr an Cloud-Dienstleistungen vorbei?

René Büst: Zunächst trägt Cloud-Computing dazu bei, die Investitionskosten in IT-Umgebungen zu reduzieren. Dabei handelt es sich aber nur um einen Bruchteil der Vorteile, die von der Cloud ausgehen. Viel wichtiger ist jedoch der ständige Zugriff auf State-of-the-Art-Technologien und neue Services wie AI – etwas, das innerhalb von selbst betriebenen On-Premise-Umgebungen nicht möglich ist. Weiterhin ist die Skalierbarkeit und Elastizität von Cloud-Computing essentiell, um auf die wechselnden Marktbedingungen und Kundenanfragen flexibel reagieren zu können. Cloud-Services sollten zudem in die Business-Strategie mit einbezogen werden. Vor allem für diejenigen Unternehmen, die auch in anderen Ländermärkten als nur Deutschland aktiv sind oder international expandieren wollen. Cloud-Computing erleichtert es, die globale Reichweite mit einfachen Mitteln zu erhöhen, da die großen Public-Cloud-Anbieter mittlerweile in allen wichtigen Regionen weltweit mit lokalen Rechenzentren vor Ort sind. Grundsätzlich gibt es aber nicht ein klares Ja zur reinen Public Cloud-Nutzung bzw. ein klares Nein zu reinen On-Premise-Umgebungen. Vielmehr geht es um einen gesunden Mix, der zu der IT- bzw. Geschäftsstrategie passt.

Frage: Wie ist Ihre Meinung zum Thema Datenschutz in der Cloud? Wie steht es zum Beispiel um die Datensicherheit, wenn beispielsweise ERP-Systeme in der Cloud agieren? Wie können sich Unternehmen wirkungsvoll absichern?

René Büst: Die Krux ist, geht es um das Thema Sicherheit, werden leider immer wieder zwei Begriffe vermischt, die grundsätzlich unterschieden werden müssen: Die Datensicherheit und der Datenschutz.

Datensicherheit bedeutet die technischen und organisatorischen Maßnahmen umzusetzen, um Vertraulichkeit, Verfügbarkeit und Integrität der IT-Systeme sicherzustellen. Public Cloud-Anbieter bieten weit mehr Sicherheit, als es sich ein deutsches mittelständisches Unternehmen leisten kann. Das hängt damit zusammen, dass Cloud-Anbieter gezielt in den Aufbau und die Wartung ihrer Cloud Infrastrukturen investieren und ebenfalls das dafür notwendige Personal beschäftigen und die entsprechenden organisatorischen Strukturen geschaffen haben. Hierzu werden jährlich Milliarden von US-Dollar in die Hand genommen. Es gibt nur wenige Unternehmen außerhalb der IT-Branche, die in ähnlicher Weise in IT-Sicherheit investieren können und wollen.

Beim Datenschutz geht es um den Schutz der Persönlichkeitsrechte während der Datenverarbeitung und den Schutz der Privatsphäre. Dieses Thema sorgt bei den meisten Unternehmen für die echten Kopfschmerzen. Denn beim Verstoß gegen das Bundesdatenschutzgesetz macht der Gesetzgeber kurzen Prozess. Es geht zunächst also darum, den Cloud-Anbieter für die Einhaltung der im §9 festgehaltenen Regeln im Bundesdatenschutzgesetz in die Verantwortung zu nehmen und dies selbst auf Basis von §11 zu überprüfen. Für die Erfüllung von §11 empfiehlt es sich auf die Gutachten von Wirtschaftsprüfern zurückzugreifen, da kein Anbieter jeden Kunden einzeln ein Audit durchführen lassen kann. Der Datenschutz ist ein absolut wichtiges Thema, schließlich handelt es sich dabei um sensibles Datenmaterial. Es ist aber in erster Linie ein rechtliches Thema, was durch Maßnahmen der Datensicherheit gewährleistet werden muss.

Unterm Strich müssen Unternehmen das Thema Verschlüsselung weit oben auf die Agenda setzen. Anbieter von Cloud-Services müssen Sicherheit „Out-of-the-Box“ mitliefern. Ergo, jeder Cloud-Anbieter, der für „mehr“ Sicherheit ein extra Preis-Tag an seine Services dran schreibt ist in der heutigen Zeit kein seriöser Partner mehr. Zudem ist Verschlüsseln „at Rest“ (Verschlüsselungen der ruhenden Daten), als auch „End-to-End“ (Verschlüsselung der sich bewegenden Daten inkl. der ruhenden Daten) heute State-of-the-Art.

Frage: Google, Amazon und Facebook stehen Sie kritisch gegenüber. Sie vertreten sogar die Meinung, dass jedes Unternehmen in direkter Konkurrenz zu diesen Internet-Giganten steht. Wie meinen Sie das?

René Büst: Nun, grundsätzlich finde ich Google und Amazon klasse. Denn jedes Unternehmen sollte sich von deren Innovationskraft und dem konsequenten Willen, sich ständig nach vorne entwickeln zu wollen, eine Scheibe abschneiden. Allerdings es gibt gute Gründe, warum uns Google den Großteil seiner Dienste kostenlos zur Verfügung stellt, oder warum Amazon will, dass jeder von uns ein Echo zu Hause hat, oder warum Facebook zum Verzeichnis unserer “Freunde” geworden ist. Was im ersten Moment sehr praktisch erscheinen mag, ist auch eine Gefahr – für die Endverbraucher ebenso wie für etablierte Unternehmen der Old Economy. Nach nunmehr zwei Dekaden sammeln die Internetgiganten Amazon, Google, Facebook, Alibaba und Baidu weiterhin Tonnen an Daten, um ihre Datenbanken mit Informationen von jedermanns Wissen, Meinungen, Empfehlungen, Aufenthaltsorten, Bewegungen, Kaufverhalten, Beziehungsstatus, Lebensstil und mehr zu befüllen. Das ist kein Geheimnis und neu ist dieser Zustand schon gar nicht. Amazon, Google, Facebook und Co. sind in unserem Leben allgegenwärtig geworden. Und Dank des Internet of Things wird die Lücke zwischen unserem analogen und digitalen Leben ständig kleiner. Smart-Home-Lösungen wie Nest, Tado oder Netatmo sind nur der Anfang einer neue Klasse von Geräten. Diese werden zu Augen in unseren privaten Umgebungen, die zuvor nicht mit dem Internet verbunden waren und auf diesem Weg in die Greifarme von Google & Co gelangen. Intelligente private Assistenten wie Amazon Echo oder Google Home sind der nächste Evolutionsschritt. Sie lassen sich einsetzen, um Smart-Home-Lösungen zu steuern oder unser Leben einfacher zu machen, indem wir unsere Stimme nutzen. Kleine Randbemerkung: Wir sollten das Wort “intelligent” in diesem Zusammenhang mit Vorsicht verwenden, da es sich bei den Kommandos über vordefinierte Skripte handelt.

Aber diese technologische Entwicklung bringt uns eine wichtige Erkenntnis: Amazon, Google & Co finden neue Wege, um uns über andere Kanäle an sich zu binden. Sie sammeln Daten und Informationen, die sie benötigen, um bessere Entscheidungen zu treffen und uns bessere Antworten zu liefern. Die Absicht dahinter ist klar: Jeder von uns wird schlichtweg dafür genutzt, um die AIs auf einer täglichen Basis zu trainieren. Das bedeutet, dass alle Services, die Google & Co. ihren Kunden anbieten, letztlich dazu dienen, eine Landkarte der Welt zu zeichnen, die auf den gesammelten Daten basiert.

Endverbraucher befinden sich mittlerweile in einem sehr komfortablen Hamsterrad und können sich im Grunde genommen nicht beschweren. Getreu dem Motto “Quid pro quo”, stellen insbesondere Google und Facebook ihre Dienste kostenlos zur Verfügung und nehmen dafür Daten als Gegenleistung. Befindet man sich aber erst einmal in dieser Spirale, ist es allerdings sehr schwierig oder gar unmöglich sie zu verlassen. Der Grund besteht darin, dass alles digitalisiert wird. Unsere Gesellschaft wird an einen Punkt gelangen, an dem nichts mehr ohne digitale Dienste funktionieren wird. Man könnte auch sagen, dass eine Person, die digital nicht existiert, überhaupt nicht mehr existiert. Und indem das Nutzererlebnis ständig angenehmer wird, muss niemand mehr ein Technologie-Experte sein. Das ist aber gefährlich. Denn die Mehrheit unserer Gesellschaft weiß überhaupt nicht, wie welche Dinge miteinander verknüpft sind und was technologisch im Hintergrund vor sich geht. Unterm Strich liefert das Hamsterrad alle unsere Daten, die die Grundlage für den Erfolg von Google & Co. bilden und als Waffen gegen die renommierten Unternehmen eingesetzt werden.

Und der sarkastische Teil dieser Geschichte besteht darin, dass jeder von uns die Internetriesen bei ihrem Kampf gegen die Old Economy unterstützt, sogar die Old Economy selbst. Die etablierten Unternehmen sind schließlich ebenfalls Kunden der Internetkonzerne, wenn auch aus guten Grund: In den meisten Fällen ergibt es keinen Sinn mehr, eine eigene IT-Infrastruktur oder Dienste in eigenen Umgebungen zu betreiben. Oder es ist einfach zu teuer, innovative Dienste selbst zu entwickeln, die bereits von Amazon, Google & Co. entwickelt wurden. Allerdings befinden sich die alteingesessenen Unternehmen in einem Teufelskreis. Denn auch wenn sie weiterhin die Besitzer ihre Daten sind – aus einer rechtlichen Perspektive – bedeutet dies nicht, dass sie der exklusive Besitzer des Wissens sind, welches aus diesen Daten entsteht.

Daten und Erkenntnisse aus Daten sind die Grundlage, auf der die Internetgiganten Teile ihres Geschäfts aufgebaut haben. Sie arbeiten mit Daten und monetisieren diese. Allerdings handelt es sich dabei nur um einen Teil ihrer großen Maschinerie. Dieser aber gibt ihnen die Macht, quasi jedes funktionierende Geschäftsmodell der Old Economy anzugreifen. Amazon ist nur ein Beispiel von vielen. Der Konzern hat bereits damit begonnen, die Zwischenhändler in der eigenen Lieferkette aus dem Weg zu räumen. Wir können sicher sein, dass Unternehmen wie DHL, UPS oder FedEx in Zukunft ihre Geschäfte anders machen werden als heute – Stichwort Amazon Prime Air. Zudem hat Amazon alles in die Wege geleitet, um ein Ende-zu-Ende Anbieter von Gütern zu werden, und zwar nicht nur digital.

Die Internetkonzerne setzen also voll auf Künstliche Intelligenz. Und viele Führungskräfte unterschätzen noch immer, welche Auswirkungen das auf ihr eigenes Unternehmen haben kann. Damit wächst die Gefahr, dass die Player der Old Economy zu den großen Verlierern in diesem Spiel werden.

Frage: Stichwort „Digitale Transformation“: Noch steht die deutsche Wirtschaft ausgezeichnet da. Befürchten Sie, dass Deutschland mittel- bis langfristig den Anschluss verpassen könnte?

René Büst: Erst einmal müssen wir von einer „Digitalen Evolution“ und keiner Transformation sprechen. Unternehmen setzten seit Anfang der 70er Jahre auf IT-Lösungen. In dieser Zeit ging es darum, die Organisation und Mitarbeiter mit IT auszustatten, um ein Digital Enterprise 1.0 zu schaffen. Der Großteil der Unternehmen befindet sich mittlerweile im Digital Enterprise 2.0. Hierbei geht es darum, IT viel stärker in den Mittelpunkt zu stellen und das eigene Unternehmen mit Kunden, Partner und Lieferanten mehr miteinander zu vernetzen und neue (digitale) Produkte und Services zu entwickeln, Stichwort: Internet of Things. Hierbei helfen dann Mobile Computing, Cloud-Computing, Software-defined Products etc. Nur ein Bruchteil der Unternehmen weltweit befinden sich dagegen bereits im Digital Enterprise 3.0, wo es darum geht Ende-zu-Ende Angebote zu entwickeln und damit die gesamte Wertschöpfungskette zu kontrollieren. Amazon ist hier einer der Vorreiter. Aber auch die noch dichtere Vernetzung im Kontext von Menschen, Objekten, Geräten und Lokationen wird immer mehr in den Mittelpunkt rücken, um maßgeschneiderte Lösungen am Ort des Geschehens anzubieten. Bis hin zu einer AI-defined World, wo anhand von Intelligent Environments unser Alltag effizienter und bequemer gestaltet wird.

Um meinen Begriff der „Digitalen Evolution“ zu untermauern. Erst kürzlich wurde Peter Froese – Apothekerverbandschef in Schleswig-Holstein – mit der Aussage zitiert, dass die Apotheker schon seit den 1970er-Jahren einheitliche Kodierungen für Arzneimittel nutzen und Daten elektronisch übertragen. Deutschland kann durchaus weiter den Anschluss verlieren, was meiner Ansicht nach an einer fehlenden Risikobereitschaft liegt. Es wird ständig zu lange gewartet, bis Best Practices vorhanden sind. Dann wird diskutiert. Dann werden Probleme/ Ausreden und künstliche Hürden herbeigezaubert, zum Beispiel das Thema Datenschutz. Und wenn man sich dann durchgerungen hat etwas zu starten, ist es zu spät und die Marktanteile sind vergeben oder der Mitbewerber aus Übersee ist technologisch meilenweit entfernt. Ein Nachzügler zu sein ist ja per se nichts Schlimmes. Das ist aber nur dann sinnvoll, wenn man als Copycat a la Samwer schlichtweg einen Exit sucht. Aber ernsthafte Innovationen schafft man anders.

Ich hoffe daher nur, das Deutschland beim Thema Artificial Intelligence nicht auch wieder den Anschluss verliert. Das ist technologisch als auch strategisch ein immens wichtiges Thema für jedes deutsche und europäische Unternehmen, um das bestehende Geschäftsmodell und die dazugehörigen Produkte und Services zu erweitern und den Kunden noch mehr in den Mittelpunkt des Interesses zu stellen. Als Kunden liefern wir Anbietern mittlerweile jede Menge Daten, die gewinnbringend für uns genutzt werden können, um uns einen besseren Service zu bieten. Aber das alleine wird nicht reichen. Unternehmen müssen den verknüpfenden Blick auf unterschiedliche Trends behalten, was ich als “Digital Correlation” bezeichne. Denn Trends wie Cloud-Computing, Artificial Intelligence, Internet of Things, Data Analytics, Fog Computing und Blockchain spielen sehr eng miteinander zusammen und würden ohne einen anderen Trend wohlmöglich gar nicht existieren. Außerdem reicht es heute nicht mehr, einfach nur den nächsten Megatrend nachzulaufen. Das Gesamtbild ist entscheidend und wie man selbst daran partizipieren kann und sollte.


Das Interview ist am 24.Oktober 2017 zuerst unter dem Titel Rene Büst: „Künstliche Intelligenz wird der Game Changer“ erschienen.

Interview: Cloud Use Cases Days 2018

$
0
0

Im März 2018 wurde ich im Rahmen des 5. Cloud Use Cases Day 2018 der Fachhochschule Nordwestschweiz (FHNW) interviewed.

Sie sprechen am Cloud Use Cases Day zum Thema “The Magic Triangle of Digital Masterminds”. Welche Relevanz hat dieser Gegenstand innerhalb der Themen Cloud, Digitalisierung und Transformation, den Themen des Cloud Use Cases Days?

Das “magische Dreieck” setzt sich aus den Ecken Digital, Cloud und AI zusammen. Vereinfacht dargestellt sollte es so von oben wie folgt gelesen werden: “Sei digital”, “Nutze Cloud” und “Erweitere mit künstlicher Intelligenz”. Ich sehe dieses Dreieck aktuell als die Grundlage moderner Unternehmensstrategien. Denn wenn Sie sich einmal erfolgreiche Unternehmen anschauen, dann setzten diese bereits seit über 20 Jahren auf digitale Technologien, haben ihre Technologie-Stacks kontinuierlich erweitert und hierbei das Geschäftsmodell hinterfragt, um zu verstehen, wie Technologien sie weiter nach vorne bringen. Diese Unternehmen haben als Pioniere frühzeitig begonnen, Cloud Computing zu nutzen und sind ebenfalls die Vorreiter beim Einsatz von Artificial Intelligence, um ihre Kunden besser zu verstehen und diesen einen besseren Service zu ermöglichen.

Für wen ist Ihr Vortrag interessant und warum (Zielgruppe)?

Der Vortrag richtet sich an das C-Level, Mitarbeiter aus dem Business Development und alle diejenigen, die verstehen wollen, wie und warum Platform Companies derzeit der Old Economy das Wasser abgraben.

Sie sind für arago tätig, einem führenden AI- Unternehmen. In den Jahren zuvor waren Sie in den Medien als Cloud Evangelist präsent und zählten zu den einflussreichsten Cloud Computing Influencern. Wenn Sie zurückblicken, welche Entwicklungen haben Sie beobachtet/beobachten Sie, was den Einsatz von Cloud-Technologien betrifft?

Die Cloud ist einer der wichtigsten Treiber der Digitalisierung. Nur mit dem Einsatz dynamisch agierender und global skalierbarer Infrastrukturen und Plattformen können Unternehmen ihre IT-Strategien an die sich ständig verändernde Marktbegebenheiten anpassen und die Unternehmensstrategie damit agiler unterstützen. Cloud-Infrastrukturen und Plattformen ermöglichen es IT-Organisationen Agilität bereitzustellen und die Innovationsfähigkeit eines Unternehmens zu erhöhen. Hierzu zählen:

  • Zugriff auf State-of-the-art Technologien und höherwertige Services, um neue digitale Produkte und Dienste zu entwickeln.
  • Kostengünstige Entwicklung und Tests von PoCs.
  • Verbesserung der Customer Experience anhand der Entwicklung neuer kundenzentrierter Lösungen, um die Kundenbeziehung zu optimieren.
  • Engere Integration der gesamten Prozess- und Lieferkette innerhalb der Organisation sowie mit Partnern und Lieferanten.
  • Beschleunigung des Release-Zyklus (Continuous Development und Deployment)

AI ist der nächste logische Schritt nach der Cloud und profitiert gleichermaßen von deren Erfolg. Die Cloud ist der Antrieb aus einem technologischen Blickwinkel. Bei AI geht es um den Mehrwert für das Unternehmen und führt zu intelligenteren Anwendungen.

Gibt es sonst noch etwas, das Sie Ihrem Vortrag vorausschicken möchten?
Ich mag ein lebendiges Publikum, das Fragen stellt. 😉

Klartext: Artificial Intelligence (AI) ist Autonome Prozess Automation. Und Sie macht unser Leben einfacher.

$
0
0

Mal ernsthaft, sind Sie nicht auch langsam von Leuten wie Elon Musk oder Stephen Hawking gelangweilt, welche die Artificial Intelligence (AI) ständig als größte Bedrohung der Menschheit verteufeln? Deren Behauptungen lassen die Menschen denken, dass AI sämtliche Arbeitsplätze überflüssig machen oder den nächsten Weltkrieg starten wird. Schlimmer noch, die Erwartungshaltungen werden damit so weit nach oben geschraubt, dass die Öffentlichkeit davon ausgehen könnte, dass die Forschung und Entwicklung rund um AI kürzlich Quantensprünge gemacht hat. Und dank solcher übertriebenen Erwartungshaltungen ist es ein Leichtes, dass wir wieder geradewegs in den nächsten AI-Winter laufen. Ruhig bleiben, wir sind aktuell weit davon entfernt, eine Super-Intelligenz zu entwickeln, vor der sich Musk und Hawking fürchten oder welche uns Hollywood mit Filmen wie “Ex_Machina”, “Her” or “AI” präsentiert. Lassen Sie mich Ihnen lieber erzählen, was viel besorgniserregender ist. Nach Angaben einer Sage-Studie haben 43 Prozent der Befragten in den USA und 46 Prozent der Befragten in UK keine Ahnung, um was es sich bei AI überhaupt handelt. Somit besteht aktuell die größte Problematik darin, dass die Allgemeinheit nicht darüber informiert ist, was AI tatsächlich bedeutet.

Ethik und Regulierungen sind extrem wichtig

Selbstverständlich ist es absolut notwendig im Kontext von AI über Regulierungen und Ethik zu sprechen! Aber wie sollen wir einer AI eine Ethik beibringen, wenn unsere Gesellschaft selbst keine Ethik besitzt? Beispiele hierfür sehen wir tagtäglich.

In der Tat sind Boston Dynamics’ Roboter “Atlas” und “Handle” echt gruselig. Aber was passiert, wenn Tesla’s Autopilot jemanden über den Haufen fährt – wer ist dafür verantwortlich? Oder wenn der Autopilot entscheiden muss, wer überlebt. Der Fahrer? Der alte Mann oder der kleine Junge auf der Straße? Das sind aktuell die Fragen, welche ich regelmäßig aus dem Publikum bekomme. Das besorgt die Menschen derzeit. Aber vielleicht äußert sich Elon Musk eines Tages auch einmal dazu…

Derzeit leben wir in einer Zeit des exponentiellen technologischen Fortschritts. Das bedeutet, eine „dies wird niemals geschehen“ Haltung ist die falsche Einstellung. Schließlich findet die Forschung und Entwicklung neuer Technologien in immer kürzeren Zeitabständen statt. Dennoch lösen die derzeit erfolgreichsten AI-Systeme gerade einmal die Strategiespiele „Go“ oder „FreeCiv“.

AI ist nicht nur Machine Learning

Hinzu kommt, dass heutige AI-Projekte in den meisten Fällen auf Machine Learning setzen, welche dabei helfen Muster innerhalb von riesigen Datensätzen zu erkennen, um auf Basis existierender Daten Vorhersagen zu treffen. Allerdings ist es hierfür wichtig, Zugriff auf die richtigen und vor allem qualitativ hochwertigen Daten zu besitzen. Weiterhin muss im Nachgang unbedingt die Genauigkeit und Plausibilität der Ergebnisse überprüft werden. Schließlich lässt sich in riesigen Datenmengen immer etwas finden. Und das ist dann gleichzeitig auch ein großer Nachteil, wenn man sich im Rahmen seiner AI-Strategie ausschließlich auf Machine Learning konzentriert. Machine Learning benötigt Unmengen an Trainingsdaten, um in der Lage zu sein, wertvolle Informationen bzw. Resultate in Mustern zu erkennen.

Artificial Intelligence ist Autonome Prozess Automation

Überführen wir die große AI-Diskussion mal in Richtung vernünftiger Überlegungen. Heute geht es bei AI nicht darum, das menschliche Gehirn nachzubilden. Es geht darum, ein System zu entwickeln, das sich verhalten kann wie ein Mensch. Unterm Strich bedeutet AI somit die Vereinigung von Analysen, Problemlösungen und Autonomer Automation. Und dieses unter der Berücksichtigung von Daten, Wissen und Erfahrungen.

Versuchen Sie mal die ganze AI-Diskussion von einem anderen Blickwinkel zu sehen. Betrachten Sie unser Leben als einen Prozess. Betrachten Sie jeden einzelnen Tag als einen Prozess, der in einzelne Schritte (Sub-Prozesse) unterteilt ist. Und dann betrachten Sie AI als Autonome Prozess Automation, welche uns mehr Komfort bietet und damit unser Leben einfacher macht.

Amazon Alexa und Apple Siri sind AIs aber nicht intelligent

Haben Sie schon einmal versucht eine einfache Konversation mit Amazon’s Alexa oder Apple’s Siri zu führen? Genau, das geht nicht gut aus. Dennoch, bei Alexa als auch Siri handelt es sich um AI-Technologien. Beide nutzen Natural Language Processing (NLP). Also, Machine Learning Algorithmen in Kombination mit Vorhersagemodellen. Zum Beispiel werden die Algorithmen eingesetzt, um Ihre Sprachkommandos in kleine Teile – so genannte Sound Bites – zu zerlegen. Anschließend werden diese Stücke anhand eines anderen Vorhersagemodells analysiert, mit welchem versucht wird zu erkennen, um was für eine Art von Anfrage es sich handelt. Allerdings sind Alexa als auch Siri weder intelligent noch selbstlernend. Betrachten Sie deren „Gehirne“ (sie haben KEINE Gehirne) wie eine Datenbank, welche sich in den Cloud-Backends von Amazon und Apple befinden, und die eine Menge von fertigen Antworten bzw. Anweisungen bedienen. Sollten Sie bspw. ein stolzer Besitzer eines Amazon Echo sein, dann verstehen Sie wovon ich spreche. Jeden Freitag erhalten Sie dann nämlich eine E-Mail mit den neuesten Kommandos die Sie nutzen können, um Alexa zu kontrollieren bzw. mit ihr zu interagieren. Neben der ständig wachsenden Datenbank hinter Alexa helfen die sogenannten „Alexa Skills“ dabei, Alexa „intelligenter“ zu machen. Hierbei handelt es sich um nicht mehr als kleine Applikationen (wie für Ihr Android Smartphone oder iPhone), welche jemand entwickelt und mit weiteren Kommandos, Fragen die gestellt werden können sowie fertigen Antworten bzw. Anweisungen ausgestattet hat. Und je mehr Alexa Skills aktiviert sind, desto intelligenter erscheint Alexa, da Sie schließlich mehr Kommandos zur Verfügung haben, um mit ihr zu interagieren. Die aber derzeit wirklich interessante Geschichte um Alexa ist, dass Amazon mittlerweile 5000 Mitarbeiter exklusiv an Alexa arbeiten lässt, um sie zu verbessern. Damit können wir bald deutlich mehr Fortschritt erwarten.

Die gute Neuigkeit: selbstlernende Systeme existieren bereits. Wenn Sie bspw. Ihr iPhone über Bluetooth mit Ihr Fahrzeug verbinden und Ihre Heimatadresse und die Ihres Büros hinterlegen, wird das iPhone Ihnen in kurzer Zeit anzeigen, wie lange Sie nach Hause bzw. zur Arbeit benötigen. In anderen Fällen hat mir „Apple Maps Destination“ Vorhersagen für Ankunftszeiten zu Orten angezeigt, welche ich zwar öfters besucht habe, deren Adresse aber nicht auf meinem iPhone gespeichert ist. Also lediglich auf Basis meiner Reisegewohnheiten. Google Now arbeitet auf ähnliche Weise. Proaktiv stellt der Dienst dem Nutzer Informationen bereit, welche diese möglicherweise suchen. Also Vorhersagen basierend auf deren Suchverhalten. Und wenn Sie Google Now Zugang zur Ihrem Kalender gewähren, dann arbeitet der Dienst sogar als persönlicher Assistent/ Berater. So erinnert er Sie bspw. daran, dass Sie einen Termin haben und welches Verkehrsmittel Sie nehmen sollten, um rechtzeitig vor Ort zu sein.

Zu anderen AI-bezogenen Diensten, mit welchen Sie möglicherweise schon seit geraumer Zeit in Kontakt sind, gehören:

  • Seit den 1950er setzt die Finanzindustrie bereits auf Machine Learning Algorithmen, um Ihre Kreditwürdigkeit zu prüfen.
  • Webseiten zur Partnersuche nutzen Algorithmen, um Anzeichen zu erkennen, wie wahrscheinlich es ist, dass zwei Menschen miteinander ausgehen werden.
  • Am Flughafen Genf kümmert sich der autonome Roboter KATE um das Gepäck, hilft beim Check-in und der Navigation durch den Flughafen. Alles anhand von Datenanalysen und der Berücksichtigung von Geolokationen.
  • “Relay” von Savioke ist ein autonomer Roboter-Bote der in einigen Hotels für den Room Service eingesetzt.

Autonome Prozess Automation in unserem täglichen Leben

Kommen wir zurück zur AI als Autonome Prozess Automation, die unser Leben vereinfacht. Ein paar Ideen:

  • Stellen Sie sich Alexa oder Siri als Ihren persönlichen Wachhund im Büro vor. Ein intelligenter Assistent, der Ihre Anrufe entgegennimmt und für Sie Termine mit Kollegen autonom aushandelt – insbesondere mit denen, die Ihnen ständig ungefragt Kalendereinladungen schicken. Ich denke dabei an eine frühe Variante von Iron Man’s AI „Jarvis“.
  • Oder wie wäre es mit Alexa oder Siri als einen persönlichen Assistenten für unterschiedliche Lebensbereiche. Sagen wir, Sie haben einen Vortrag auf einer Konferenz. Ihr Flug nach Hause startet um 16:00 Uhr. Damit Sie den Flug rechtzeitig erreichen, bestellt Ihr virtueller Assistent Ihnen ein Taxi zu um 14:15 Uhr, da Ihr Vortrag um 13:45 Uhr endet und nach der aktuellen Verkehrslage mit Stau zu rechnen ist. Der virtuelle Assistent sendet Ihnen lediglich die Standortinformationen, wo Ihr Taxi Sie abholen wird. Während des Vorgangs folgt der Assistent einfach nur den gesamten Prozess den Sie normalerweise durchschreiten würden: vom Herausnehmen des Smartphones aus der Tasche, über das Öffnen der App, Suchen des Reiseziels bis hin zum Bestellen des Taxis. Sie haben somit Ihre Hände und Gedanken frei für wesentlich wichtigere Dinge. Hierfür müssen Sie der AI natürlich Zugriff auf Ihren Kalender, Geolokation und weitere Informationen geben.
  • Oder stellen Sie sich eine intelligente Variante des Küchenhelfers “Thermomix” vor. Der Speiseberater: Anhand dessen was der Thermomix im Kühlschrank findet, macht er Vorschläge, welche Gerichte gekocht werden könnten. Sollten ein paar Zutaten für andere mögliche Gerichte fehlen, könnte er anbieten, diese direkt online zu bestellen. Oder der gesundheitsbewusste Berater: Basierend auf den Essgewohnheiten der letzten Wochen macht der Thermomix Sie freundlich darauf aufmerksam, dass Sie das Tiramisu, welches Sie gerade zubereiten, heute doch lieber nicht auf dem Speiseplan stehen sollte, da dies nicht gut für Ihre Kalorienaufnahme wäre.

Autonome Prozess Automation innerhalb eines Unternehmens

AI als Autonome Prozess Automation hat auch im Unternehmensumfeld jede Menge Potentiale. Schauen wir uns zwei reale Beispiele an:

  • Eine AI-defined Infrastructure bspw. ist im Grunde genommen nichts Anderes als eine Autonomous Process Automation für den IT-Betrieb. Mit dieser Art von Umgebung ist ein Unternehmen in der Lage, eine selbstlernende bzw. selbstheilende Infrastruktur-Umgebungen aufzubauen und zu betreiben. Eine AI-defined Infrastructure kann ohne menschliche Interaktion, abhängig von den Workload-Anforderungen, die notwendigen Ressourcen bereitstellen und diese wieder de-allokieren, wenn sie nicht mehr benötigt werden. Hierzu analysiert sie fortlaufend das sich ständig verändernde Verhalten und den Status einzelner Infrastruktur-Komponenten. Damit kann sie auf den Status einzelner Infrastruktur-Komponenten reagieren bzw. proaktiv agieren, indem autonom Aktionen durchgeführt werden, um die Infrastruktur ständig wieder in einen fehlerfreien Zustand zu überführen.
  • In der Versicherungsindustrie befindet sich eine Autonome Prozess Automation bereits im Einsatz, um autonom Versicherungspolicen zu erstellen. Hierzu lernen Versicherungsexperten (Domain-Experten) einer AI den Prozessablauf Schritt für Schritt an, wie und warum sie eine bestimmte Versicherungspolice erstellen. Die AI ist außerdem mit externen Partnersystemen verbunden, die weitere Informationen zur Verfügung stellen. Im ersten Schritt erstellt die AI eine Versicherungspolice und informiert einen Experten. Der Experte prüft die Police und nimmt ggf. Änderungen vor. Anschließend übersendet er die Police an den Kunden. Das Ziel besteht darin, dass ein Kunde direkt mit der AI interagiert und nach Übermittlung aller notwendigen Informationen seine individuelle Versicherungspolice erhält.

Schrauben Sie Ihre Erwartungen nach unten

Zum Abschluss ein wichtiger Punkt. Anstatt AI ständig als größte Gefahr für die Menschheit zu diskutieren sollten wir lieber mal die größte Gefahr der AI-Forschung hervorheben. Die Ungeduld der Menschen! Das Problem: Die AI-Forschung besteht aus einem sich ergänzendem System verschiedener Techniken und Methoden. Immer dann wenn eine Vorgehensweise „die Aufgabe nicht vollständig erledigt“ hat, wendeten sich die Menschen von diesem Ansatz ab und verfolgten einen anderen. Sie wollen coole AI-Lösungen in der Zukunft sehen? Bleiben Sie ruhig und warten Sie ab. Es wird passieren! Wir müssen uns lediglich Schritt für Schritt nach vorne bewegen. Andernfalls werden die Erwartungen wieder nicht erfüllt, was uns umgehend in den nächsten AI-Winter treiben wird.

Verstehen Sie AI-Technologien daher als einen Ansatz unser Leben einfacher zu machen. Und strapazieren Sie dabei das Wort „Intelligenz“ nicht zu sehr. Seien Sie aber dennoch vorsichtig damit, welche Art von Daten und persönlichen Informationen Sie wirklich teilen wollen. Denn sind diese erst einmal außerhalb Ihres Kontrollbereiches, ist es nahezu unmöglich den Vorgang wieder rückgängig zu machen.

Alles über Serverless Computing

$
0
0

Mit der Einführung von AWS Lambda im Jahr 2014 läuft der Hype um das „Serverless Computing“ ungebrochen weiter. Und trotz der bereits vergangenen vier Jahre herrschen immer noch Verwirrung und Verunsicherungen im Markt. War es das also endgültig mit Servern? Dieser Artikel räumt mit den Mythen rund um das „Serverless Computing“ auf, beschreibt dessen Vorteile als auch Risiken und erläutert mögliche Einsatzszenarien.

Was ist Serverless Computing?

Im Rahmen des „Serverless Computing“ wird tatsächlich auf den direkten Einsatz von Servern verzichtet. Allerdings arbeiten diese als physikalischer bzw. virtueller Host weiterhin im Hintergrund. Schließlich müssen Software, Programmcode und Daten irgendwo gespeichert und betrieben werden. Hingegen muss sich ein Entwickler aber nicht mehr direkt mit ihnen beschäftigen und kann sie vernachlässigen. Stattdessen übernimmt ein Cloud-Dienst wie eine Blackbox die Arbeit. Der Entwickler lädt seinen Programmcode hoch und schreibt Funktionen. Die vollständige Administration der notwendigen Serverinfrastruktur inklusive der Server- und Betriebssystemwartung wird von dem Cloud-Dienst übernommen.

Das Stichwort hier ist Entwickler. Das ist die Zielgruppe des Serverless Computing, dessen Einsatz stetig populärer wird, um Anwendungen schnell und bequem zu entwickeln. Es geht im Kern also darum, Entwickler zu befähigen Programmcode „ohne Hürden“ oder besser ohne den Kontakt zu System-Administratoren auszuführen oder sich selbst nicht mehr mit der Provisionierung und dem Verwalten von Servern zu kümmern. Aus Enwickler-Perspektive bedeutet dies, dass mit Serverless das oft propagierte DevOps-Konzept auf DevOnly heruntergebrochen wird. Denn der letzte kleine Ops-Anteil wird von dem Serverless-Dienst übernommen.

Das klingt zunächst alles nach einem Platform-as-a-Service (PaaS). Schaut man sich Serverless-Technologien jedoch genauer an, fallen eindeutige Unterschiede zu einem PaaS auf. Im Falle eines PaaS muss ein Entwickler in seinem Programmcode die APIs des PaaS ansprechen, um im Bedarfsfall die notwendige Skalierbarkeit und Ausfallsicherheit der Anwendung sicherstellen, indem die darunterliegende verdeckte Serverinfrastruktur entsprechende Ressourcen hinzufügt und anschließend wieder freigibt. Beim „Serverless Computing“ wird dies vollständig von einem Cloud-Dienst übernommen. Der Dienst kümmert sich eigenständig um das Kapazitätsmanagement, wie die automatische Bereitstellung der notwendigen Server und weiterer Ressourcen und stellt jeder Zeit sicher, dass die Anwendung ständig ausreichend Ressourcen hat, um performant Anfragen zu beantworten.

Neben dem eigenen Programmcode muss ein Entwickler noch sogenannte „Funktionen“ erstellen. Eine Funktion enthält Anweisungen, wie auf ein Ereignis reagiert werden soll, dass eintritt (z.B. das Hochladen eines Bildes) und welche Aktion darauf folgt (z.B. automatisch einen bestimmten Filter darauf anwenden). Serverless Computing wird daher auch oft als „Event-Driven“ oder „Function as a Service“ genannt. Unterm Strich lässt sich Serverless Computing daher auch gut als eine fertige „Event Processing Engine“ innerhalb einer Blackbox beschreiben. Allerdings sind Serverless-Funktionen zustandslos. Das bedeutet, dass sie keine Abhängigkeiten zur darunterliegenden Infrastruktur besitzen. Dadurch können innerhalb kürzester Zeit viele Kopien einer einzelnen Funktion gestartet werden, die es benötigt, um die notwendige Skalierbarkeit zu einem bestimmten Zeitpunkt als Reaktion auf ein Ereignis zu erreichen. Eine weitere Eigenschaft des Serverless Computing liegt in seinem Abrechnungsmodell. Definierte Funktionen werden nur dann ausgeführt, wenn sie aufgerufen werden, nutzen nur dann die notwendigen Kapazitäten der darunterliegenden Infrastruktur und verursachen somit nur dann Kosten.
Vor- und Nachteile des Serverless Computing

Serverless Computing bringt Vorteile für eine einfache Nutzung mit sich. Allerdings sollten auch die Kompromisse beachtet werden, die dabei eingegangen werden. So ist Serverless Computing bspw. nichts für Kontrollfreaks. Wer also die automatische Skalierung und das Kapazitätsmanagements von dem Dienst übernehmen lassen möchte, muss einen eingeschränkten Freiheitsgrad in Kauf nehmen. Der Zugriff auf die virtuellen Maschinen entfällt und Änderungen an dem Betriebssystem oder der Laufzeitumgebung lassen sich ebenfalls nicht mehr vornehmen. Im Vergleich zu Serverless Computing besitzen andere Cloud-Deploymentvarianten wie IaaS (Infrastructure-as-a-Service) und PaaS (Platform-as-a-Service) spezielle Eigenschaften, die es zu berücksichtigen gilt und welche maßgeblich von dem gewünschten Kontroll-Level sowie für die Nutzung notwendigen Kenntnisstand abhängen.

IaaS
IaaS stellt Basis-Ressourcen wie Rechenleistung, Speicherplatz und Netzwerk zur Verfügung, mit denen sich eine eigene virtuelle Infrastruktur aufbauen lässt, um Applikationen zu betreiben. Eine IaaS-Umgebung bietet insofern einen hohen Kontrollgrad, da sich auf den virtuellen Maschinen alles selbst installieren und zu 100 Prozent konfigurieren lässt.

PaaS
Ein PaaS abstrahiert die Infrastruktur von der Applikation. Dies führt dazu, dass sich nicht um den Aufbau und die Verwaltung der Infrastruktur gekümmert werden muss, die für die Applikation erforderlich ist. Diese Erleichterung im Rahmen der Anwendungsentwicklung und dem Management kommen mit dem Kompromiss einher, dass die meisten PaaS-Umgebungen nur spezifische Funktionen eines Anbieters enthalten, um Applikationen zu entwickeln und bereitzustellen.

Pro Serverless Computing

  • Automatische Skalierung und Fehlertoleranz
  • Automatisches Kapazitätsmanagement
  • Flexible Ressourcenverwaltung
  • Schnelle Bereitstellung der Ressourcen
  • Exakte nutzungsabhängige Abrechnung der Ressourcen
  • Konzentration auf den Kern des Programmcodes

Kontra Serverless Computing

  • Kontrollverlust
  • Erhöhtes Lock-in Risiko
  • Latenzgefahr durch Einsatz selten genutzter Funktionen

Ein weiteres Risiko besteht in einem erhöhten Lock-in. Die Serverless-Dienste der Cloud-Anbieter sind proprietär und lassen sich nur in deren Umgebungen verwenden. Dennoch, ein Lock-in muss nichts Negatives sein. Wer sich ohnehin für eine Cloud-Umgebung wie AWS oder Microsoft Azure entschieden hat, der wird auch nicht vor Serverless Computing zurückschrecken. Ein Nutzer muss sich dessen lediglich bewusst sein und mit den möglichen Konsequenzen auseinandersetzen. Wer also weiterhin Kontrolle behalten will oder gar muss und vorsichtig mit dem Thema Lock-in umgeht, sollte eine Serverless Computing-basierende Architektur zunächst in einem Proof of Concept testen.

Szenarien für Serverless Computing

Um es vorweg zu nehmen, Serverless Computing adressiert neuartige Applikationen, die auf der grünen Wiese entwickelt werden. Komplexe und insbesondere geschäftskritische Anwendungen, die aktuell noch auf traditionelle Systemarchitekturen setzen, sind dafür nicht geeignet. Dasselbe gilt für statische Workloads, deren Anfragevolumen vorhersagbar ist. Stattdessen sollten zunächst zwar wichtige aber unkritische Projekte ausgewählt werden.

So setzt bspw. Storm Reply, der Cloud-Dienstleister hinter der Ferrero-Kampagne „Face of Kinder“, für die zweite Phase des Projekt-Rollouts in die Ländermärkte Ungarn, Mexiko und Israel auf Serverless Computing, genauer AWS Lambda. Ferrero nutzt die „Face of Kinder“ Kampagne, um über das neue lokale Gesicht auf der Kinderschokoladeverpackung abstimmen zu lassen. Hierzu laden Eltern Bilder ihrer Kinder auf eine Plattform, auf welcher dann die Abstimmung erfolgt.

Für das initiale Projekt in Brasilien kam noch eine typische Cloud-Infrastruktur-Architektur zum Einsatz. Mit dem Wechsel auf Serverless Computing wurden neben der Beschleunigung des Rollouts ebenfalls die Gesamtkosten um 75 Prozent reduziert. Dabei spielt die Projekt-DNA eine entscheidende Rolle, um die Serverless-Vorteile auszunutzen. Die Kampagne läuft nur innerhalb eines begrenzten Zeitraums und verfügt über sehr schwankende Zugriffszahlen. Zudem ist die Nachfrage so gut wie nicht vorhersagbar.

Andere Unternehmen wie Thomsen Reuter, Coca-Cola, Nordstrom, Periscope, Netflix und Associated Press setzen ebenfalls AWS Lambda in Produktion ein. Die ProSieben Tochter Glomex hat von einer Server-zentrierten auf eine Serverless-Umgebung umgestellt und verarbeitet darüber 5 Millionen Datensätze pro Tag.

Anbieter von Serverless Computing

Die Anzahl der am Markt existierender Anbieter mit Serverless Computing Diensten ist in den vergangenen Jahren stetig gewachsen. Hierzu gehören z.B. Alibaba, Databricks, Iron.io, Joyent, Oracle, PubNub, Red Hat, Serverless oder Webtask. Alle haben jedoch eines gemeinsam. Ihre Angebote spielen im weltweiten Vergleich und insbesondere bei uns Deutschland derzeit noch eine untergeordnete Rolle. Ein ernsthafter Blick lohnt sich aktuell nur auf die Angebote der großen Public Cloud-Anbieter Amazon Web Services, Microsoft Azure, Google Cloud und IBM Cloud, welche Serverless Computing Dienste bereits seit längerer Zeit im Portfolio haben.

Amazon Web Services

  • Service Name: AWS Lambda
  • Verfügbar seit: 2014
  • Status: Generell Verfügbar
  • Betriebsmodell: Public Cloud
  • Programmiersprachen: Node.js, Python, Java, C#
  • Kunden: Thomsen Reuter, Coca-Cola, Nordstrom, Periscope, Netflix, Associated Press, Ferrero, Glomex, The Seattle Times
  • Web: https://aws.amazon.com/lambda

AWS gilt als Innovationstreiber und Entwickler hinter dem Serverless-Konzept und hat Lambda als zentralen Bestandteil seines Cloud-Portfolios integriert. Lambda kann als Herzstück und Zugangspunkt zu fast jedem vorhandenen AWS Service betrachtet werden, der sich mit Lambda integrieren lässt. Das macht es für Kunden gleichzeitig sehr bequem aber auch gefährlich, in einen Lock-in zu gelangen.

Microsoft Azure

  • Service Name: Azure Functions
  • Verfügbar seit: 2016
  • Status: Generell Verfügbar
  • Betriebsmodell: Public Cloud/ On-Premise
  • Programmiersprachen: Node.js, Python, PHP, JS, C#, F#
  • Kunden: Accuweather, Plexure, FujiFilm, FirstGlas, Quest, Carmax
  • Web: https://azure.microsoft.com/en-us/services/functions

Azure Functions ist Microsofts Gegenstück zu AWS Lambda und wurde etwa zwei Jahre später auf den Markt gebracht. Microsoft arbeitet hart daran, die funktionalen als auch konzeptionellen Lücken gegenüber AWS zu schließen. Allerdings ist das Microsoft Cloud-Portfolio im Vergleich zu dem von AWS noch deutlich kleiner, wodurch der Funktionsumfang von Azure Functions derzeit noch eingeschränkter ist.

IBM Cloud

  • Service Name: Cloud Functions
  • Verfügbar seit: 2016 (ehemals: Bluemix OpenWhisk)
  • Status: Generell Verfügbar
  • Betriebsmodell: Public Cloud/ On-Premise
  • Programmiersprachen: Node.js, Python, Java, Swift, PHP, Go. Andere Sprachen wie C, C++, Rust etc. können genutzt werden, indem eigene Binaries oder Docker-Images mitgebracht werden.
  • Kunden: GreenQ, articoolo, SiteSpirit, Kone
  • Web: https://www.ibm.com/cloud/functions

IBM Cloud Functions ist 2016 unter dem Namen IBM Bluemix OpenWhisk auf dem Markt erschienen. IBM setzt hier wieder einmal auf seine langjährige Open-Source-Geschichte, wodurch sich eine eigene IBM Cloud Functions Instanz (Apache OpenWhisk) auf dem eigenen Server betreiben lässt. Cloud Functions verfügt über eine integrierte Docker-Container Unterstützung und lässt sich zusammen mit IBMs Watson Services einsetzen. Anders als die Serverless-Dienste AWS Lambda, Microsoft Azure Functions und Google Cloud Functions, können IBM Cloud Functions von jedem externen API-angestoßenen Ereignis ausgelöst werden. Dabei kann es sich auch einfach nur um einen neuen Eintrag innerhalb eines RSS-Feed handeln. Weiterhin unterstützt IBM Cloud Functions Apples Programmiersprache Swift, womit der Serverless-Dienst als Backend für iPhone- und iOS-Anwendungen dienen kann.

Google Cloud

  • Service Name: Cloud Functions
  • Verfügbar seit: 2016
  • Status: Beta Version
  • Betriebsmodell: Public Cloud
  • Programmiersprachen: Node.js, JavaScript
  • Kunden: Meetup, Semios
  • Web: https://cloud.google.com/functions

Googles Serverless-Dienst Cloud Functions erschien im Februar 2016 und befindet sich weiterhin im Beta-Status, was den Funktionsumfang erklärt. So lassen sich Funktionen lediglich in JavaScript schreiben und nur auf Google’s internen Event-Bus auslösen. Hinzu kommt, dass Cloud Storage und Cloud Pub/Sub die einzigen Google-eigenen Cloud-Dienste sind, die derzeit mit Cloud Functions integriert werden können. Andere geschäftsbedingte Trigger sind nicht vorhanden.

Fazit & Ausblick

Unternehmen investieren viel Zeit und Aufwand in den Betrieb und die Verwaltung von IT-Infrastruktur. Ein Kostenfaktor, der nicht auf Ihre Unternehmensziele einzahlt. Sich nicht länger mit dem Infrastrukturmanagement zu beschäftigen hat daher von Beginn zu einem der Vorteile gezählt, Applikationen in die Public Cloud zu überführen. Betrachtet man zudem die technologische Entwicklung von Cloud-Infrastruktur über die Zeit, sieht man einen deutlichen Trend zu mehr Einfachheit für den Kunden. Angefangen bei virtuellen Maschinen, über IaaS, zu PaaS und Containern sind wir nun bei Serverless angekommen. Denn für den Nutzer ist die beste Infrastrukturumgebung im Grunde genommen diejenigen, die für ihn nicht sichtbar ist.

Serverless Computing nimmt dem Kunden die Bürde, sich mit Infrastruktur auseinanderzusetzen und ausschließlich auf die Entwicklung und dass Verhalten der Applikation zu konzentrieren. Die Einfachheit, welche dieses Konzept innerhalb der Softwareentwicklung mit sich bringt, wird dazu führen, dass es sich schneller reifen und etablieren wird als alle anderen Paradigmen zuvor. Das unterstreicht die stetig steigende Adaptionsrate. Die Nutzung von AWS Lambda hat sich von 12 Prozent im Jahr 2016 auf 23 Prozent im Jahr 2017 fast verdoppelt.

Und mit AWS Fargate steht bereits die nächste Evolutionsstufe vor der Tür. Der Dienst ermöglicht es Kunden einen Container (Amazon ECS oder Amazon EKS) zu betreiben, ohne Server oder Cluster zu verwalten. Also im Prinzip ein „Serverless Container Service“. Der nächste Meilenstein, Software bequemer zu entwickeln.


Künstliche Intelligenz: Anspruch vs. Wirklichkeit

$
0
0

Das Thema Künstliche Intelligenz (KI) ist derzeit in aller Munde. Und geht es nach Elon Musk oder dem kürzlich verstorbenen Stephen Hawking, steht uns der KI-getriebene Weltuntergang bald bevor. Der Öffentlichkeit wird damit suggeriert, dass die Forschung und Entwicklung rund um KI kürzlich Quantensprünge gemacht hat. Ruhig bleiben, denn wir sind aktuell weit davon entfernt, eine Super-Intelligenz zu entwickeln, welche uns Hollywood mit Filmen wie “Ex_Machina”, “Her” or “AI” verkaufen möchte. Dennoch sei angemerkt, dass wir in einer Zeit des exponentiellen technologischen Fortschritts leben. Das bedeutet, eine „dies wird niemals geschehen“ Haltung ist die falsche Einstellung. Schließlich findet die Forschung und Entwicklung neuer Technologien in immer kürzeren Zeitabständen statt. Daher steht es außer Frage, dass es absolut notwendig ist, im Kontext von KI über Regulierungen und Ethik zu sprechen! Aber wie sollen wir einer KI Ethik beibringen, wenn unsere Gesellschaft selbst keine Ethik besitzt? Beispiele hierfür sehen wir tagtäglich.

Allerdings muss man Musk und Hawking in Schutz nehmen, schließlich führt Unwissenheit zu Unsicherheit und das sorgt für Angst. Oder wie Andrew Smith eins sagte: „Menschen fürchten was sie nicht verstehen.“ Dies untermauert eine aktuelle Sage-Studie, laut derer Ergebnisse 43 Prozent der Befragten in den USA und 46 Prozent der Befragten in UK keine Ahnung haben, um was es sich bei KI überhaupt handelt. Somit besteht aktuell die größte Problematik darin, dass die Allgemeinheit nicht darüber informiert ist, was KI tatsächlich bedeutet.

Künstliche Intelligenz in der Theorie

„Das Ziel der Künstlichen Intelligenz besteht darin, Maschinen zu entwickeln, welche sich so verhalten, als wären sie intelligent.“ (Prof. John McCarthy, 1955)

Sprechen wir in diesem Zusammenhang von intelligent, dann meinen wir ein sich dynamisch verhaltenes System. Ein System, das wie ein leerer IQ-Container betrachtet werden muss. Ein System, das unstrukturierte Informationen benötigt, um seine Sinne zu trainieren. Ein System, welches ein semantisches Verständnis der Welt benötigt, um in der Lage zu sein zu handeln. Ein System, das auf eine detaillierte Karte seines Kontexts angewiesen ist, um unabhängig zu agieren und Erfahrungen aus einem Kontext in den anderen zu übertragen. Ein System, das mit allen notwendigen Mitteln ausgestattet ist, um Wissen zu entwickeln, auszubauen und aufrechtzuerhalten.

Hierbei liegt es in unserer Verantwortung, unser Wissen mit diesen Maschinen zu teilen als würden wir es mit unseren Kindern, Partnern oder Kollegen teilen. Dies ist der einzige Weg, um diese Maschinen, bestehend aus Hard- und Software, in einen Status zu überführen, den wir als „intelligent“ beschreiben. Nur damit helfen wir ihnen, auf einer täglichen Basis intelligenter zu werden und legen damit die Grundlage, ein selbstlernendes System zu schaffen. Hierzu werden in der KI-Forschung drei unterschiedliche Typen von KIs (AI) unterschieden:

  • Strong AI: Bei einer Strong AI handelt es sich um eine selbstbewusste Maschine, die über Gedanken, Gefühle, einem Bewusstsein und den dazugehörigen neuronalen Verwachsungen verfügt. Wer sich allerdings schon auf eine Realität á la „Her“ oder „Ex_Machina“ freut, wird sich noch etwas gedulden müssen. Eine Strong AI existiert derzeit nicht und es wird noch eine unbestimmte Zeit dauern, bis diese Form existieren wird.
  • Narrow AI: Die meisten Anwendungsfälle im KI-Bereich fokussieren sich aktuell darauf, Lösungen für ein sehr spezielles Problem zu bieten. Diese sogenannten Narrow AIs sind sehr gut darin spezifische Aufgaben zu lösen, wie z.B. das Empfehlen von Songs auf Pandora oder Analysen, um die Tomatenzucht in einem Gewächshaus zu optimieren.
  • General AI: Eine General AI ist in der Lage, Aufgaben aus unterschiedlichen Bereichen und Ursprüngen zu bearbeiten. Hierzu besitzt sie die Fähigkeiten, die Trainingsintervalle von einem Bereich zu einem anderen zu verkürzen, indem sie die gesammelten Erfahrungen aus dem einen Bereich in einem anderen artfremden Bereich anwenden kann. Der hierfür notwendige Wissenstransfer ist nur dann möglich, wenn eine semantische Verbindung zwischen diesen Bereichen existiert. Hinzu kommt: Je stärker und verdichteter diese Verbindung ist, desto schneller und einfacher lässt sich der Wissensübergang erreichen.

Künstliche Intelligenz in der Wirklichkeit

Überführen wir die KI-Diskussion mal in Richtung vernünftiger Überlegungen. Heute geht es bei KI nicht darum, das menschliche Gehirn nachzubilden. Es geht darum, ein System zu entwickeln, das sich verhalten kann wie ein Mensch. Unterm Strich bedeutet KI somit die Vereinigung von Analysen, Problemlösungen und Autonomer Automation. Und dieses unter der Berücksichtigung von Daten, Wissen und Erfahrungen.

Amazon Alexa und Apple Siri sind KI-Technologien aber nicht intelligent

Haben Sie schon einmal versucht eine simple Konversation mit Amazon’s Alexa oder Apple’s Siri zu führen? Genau, das geht nicht gut aus. Dennoch, bei Alexa als auch Siri handelt es sich um KI-Technologien. Beide nutzen Natural Language Processing (NLP). Also, Machine Learning Algorithmen in Kombination mit Vorhersagemodellen. Zum Beispiel werden die Algorithmen eingesetzt, um Ihre Sprachkommandos in kleine Teile – so genannte Sound Bites – zu zerlegen. Anschließend werden diese Stücke anhand eines anderen Vorhersagemodells analysiert, mit welchem versucht wird zu erkennen, um was für eine Art von Anfrage es sich handelt. Allerdings sind Alexa als auch Siri weder intelligent noch selbstlernend. Betrachten Sie deren Systeme wie eine Datenbank, welche sich in den Cloud-Backends von Amazon und Apple befinden, und die eine Menge von fertigen Antworten bzw. Anweisungen bedienen. Sollten Sie bspw. ein stolzer Besitzer eines Amazon Echo sein, dann verstehen Sie wovon ich spreche. Jeden Freitag erhalten Sie dann nämlich eine E-Mail mit den neuesten Kommandos die Sie nutzen können, um Alexa zu kontrollieren bzw. mit ihr zu interagieren. Neben der ständig wachsenden Datenbank hinter Alexa helfen die sogenannten „Alexa Skills“ dabei, Alexa „intelligenter“ zu machen. Hierbei handelt es sich um nicht mehr als kleine Applikationen (wie für Ihr Android Smartphone oder iPhone), welche jemand entwickelt und mit weiteren Kommandos, Fragen die gestellt werden können sowie fertigen Antworten bzw. Anweisungen ausgestattet hat. Und je mehr Alexa Skills aktiviert sind, desto intelligenter erscheint Alexa, da Sie schließlich mehr Kommandos zur Verfügung haben, um mit ihr zu interagieren. Die aber derzeit wirklich interessante Geschichte um Alexa ist, dass Amazon mittlerweile 5000 Mitarbeiter exklusiv an Alexa arbeiten lässt, um sie zu verbessern. Damit können wir bald deutlich mehr Fortschritt erwarten.

Die gute Neuigkeit: selbstlernende Systeme existieren bereits. Wenn Sie bspw. Ihr iPhone über Bluetooth mit Ihr Fahrzeug verbinden und Ihre Heimatadresse und die Ihres Büros hinterlegen, wird das iPhone Ihnen in kurzer Zeit anzeigen, wie lange Sie nach Hause bzw. zur Arbeit benötigen. In anderen Fällen hat mir „Apple Maps Destination“ Vorhersagen für Ankunftszeiten zu Orten angezeigt, welche ich zwar öfters besucht habe, deren Adresse aber nicht auf meinem iPhone gespeichert ist. Also lediglich auf Basis meiner Reisegewohnheiten. Google Now arbeitet auf ähnliche Weise. Proaktiv stellt der Dienst dem Nutzer Informationen bereit, welche diese möglicherweise suchen. Also Vorhersagen basierend auf deren Suchverhalten. Und wenn Sie Google Now Zugang zur Ihrem Kalender gewähren, dann arbeitet der Dienst sogar als persönlicher Assistent/ Berater. So erinnert er Sie bspw. daran, dass Sie einen Termin haben und welches Verkehrsmittel Sie nehmen sollten, um rechtzeitig vor Ort zu sein.

Autonome Prozess Automation als Teil unseres täglichen Lebens

Versuchen Sie die KI-Diskussion von einem anderen Blickwinkel zu sehen. Betrachten Sie unser Leben als einen Prozess. Betrachten Sie jeden einzelnen Tag als einen Prozess, der in einzelne Schritte (Sub-Prozesse) unterteilt ist. Und dann betrachten Sie KI als Autonome Prozess Automation, welche uns mehr Komfort bietet und damit unser Leben einfacher macht. Ein paar Ideen:

  • Stellen Sie sich Alexa oder Siri als Ihren persönlichen Wachhund im Büro vor. Ein intelligenter Assistent, der Ihre Anrufe entgegennimmt und für Sie Termine mit Kollegen autonom aushandelt – insbesondere mit denen, die Ihnen ständig ungefragt Kalendereinladungen schicken. Ich denke dabei an eine frühe Variante von Iron Man’s KI „Jarvis“.
  • Oder wie wäre es mit Alexa oder Siri als einen persönlichen Assistenten für unterschiedliche Lebensbereiche. Sagen wir, Sie haben einen Vortrag auf einer Konferenz. Ihr Flug nach Hause startet um 16:00 Uhr. Damit Sie den Flug rechtzeitig erreichen, bestellt Ihr virtueller Assistent Ihnen ein Taxi zu um 14:15 Uhr, da Ihr Vortrag um 13:45 Uhr endet und nach der aktuellen Verkehrslage mit Stau zu rechnen ist. Der virtuelle Assistent sendet Ihnen lediglich die Standortinformationen, wo Ihr Taxi Sie abholen wird. Während des Vorgangs folgt der Assistent einfach nur den gesamten Prozess den Sie normalerweise durchschreiten würden: vom Herausnehmen des Smartphones aus der Tasche, über das Öffnen der App, Suchen des Reiseziels bis hin zum Bestellen des Taxis. Sie haben somit Ihre Hände und Gedanken frei für wesentlich wichtigere Dinge. Hierfür müssen Sie der KI natürlich Zugriff auf Ihren Kalender, Geolokation und weitere Informationen geben.
  • Oder stellen Sie sich eine intelligente Variante des Küchenhelfers “Thermomix” vor. Der Speiseberater: Anhand dessen was der Thermomix im Kühlschrank findet, macht er Vorschläge, welche Gerichte gekocht werden könnten. Sollten ein paar Zutaten für andere mögliche Gerichte fehlen, könnte er anbieten, diese direkt online zu bestellen. Oder der gesundheitsbewusste Berater: Basierend auf den Essgewohnheiten der letzten Wochen macht der Thermomix Sie freundlich darauf aufmerksam, dass Sie das Tiramisu, welches Sie gerade zubereiten, heute doch lieber nicht auf dem Speiseplan stehen sollte, da dies nicht gut für Ihre Kalorienaufnahme wäre.

Künstliche Intelligenz in der Zukunft

KI ist der nächste logische Schritt nach dem Cloud Computing und profitiert gleichermaßen von dessen Erfolg. Die Cloud ist der Antrieb aus einem technologischen Blickwinkel. Bei KI geht es um den Mehrwert für das Unternehmen und führt zu intelligenteren Anwendungen. Auf Basis komplexer Analysen verfeinern KI-Anwendungen im Hintergrund die Kundenansprache und passen Produkte und Dienste besser an die jeweiligen Bedürfnisse an. Immer mehr Unternehmen wie Netflix, Spotify, Amazon, Airbnb, Uber oder Expedia setzen bereits auf KI-basierende Funktionsweisen die auf umfangreiche Datenverarbeitungs- und Analyseaufgaben zurückgreifen, um enger mit ihren Kunden zu interagieren. Als Teil der Strategie befähigt eine KI Unternehmen dabei, ihren Geschäftsbetrieb und dessen Abläufe zu verbessern – u.a. durch:

  • Ein verbessertes Verständnis ihrer Kunden anhand von Interaktionen und des Verhaltens aus der Vergangenheit.
  • Eine neuartige Bedienung von Applikationen durch die Veränderung der Kundeninteraktion von der Tastatur- hin zur Spracheingabe.
  • Eine tiefergehende Kundenbeziehung anhand von “Advanced Virtual Assistants”, welche das Kundenerlebnis verbessern.
  • Kundenspezifische Produkte und Dienstleistungen angepasst an die Kundenanforderungen.
  • Vorhersagen durch Analysen von Kundendaten, -interaktionen und -verhalten aus der Vergangenheit und in Echtzeit.
  • Gesprächiger zu sein, anhand “Smart Personal Assistants” und Bots.
  • Erweiterung bestehender Produkte, Dienste, Anwendungen und Prozesse.

Eines sollte jedoch nicht vergessen werden. Bei KI geht es nicht nur darum, existierende Prozesse zu verbessern. In den kommenden 5 bis 10 Jahren wird KI zum Game Changer werden! Sie wird Innovationszyklen beschleunigen und zu neuen Geschäftsmodellen führen. KI-Anwendungen besitzen bereits heute den notwendigen Reifegrad, um die Effizienz einzelner Prozesse zu erhöhen. Allerdings sollte KI nicht ausschließlich aus einem operativen Blinkwinkel (Verbesserung der Effizienz) betrachtet werden, sondern ebenfalls eine strategische Sichtweise erhalten, um technische Möglichkeiten für neue Applikationen und Anwendungsfälle zu evaluieren. Und damit einen echten Mehrwert für Kunden, Partner sowie die eigenen Mitarbeiter schaffen.

Artificial Intelligence als Teil der Unternehmensstrategie: In Sieben Schritten zum AI-enabled Enterprise

$
0
0

Nach zwei Dekaden sammeln Plattform-Unternehmen ungehindert Unmengen an Daten, um ihre Datenbanken mit Informationen über jedermanns Wissen, Meinungen, Empfehlungen, Orte, Bewegungen, Kaufverhalten, Beziehungsstatus, Lebensstil usw. zu bereichern. Das ist kein Geheimnis und schon gar nichts Neues. Und geht es um Artificial Intelligence (AI), lässt sich festhalten, dass auch hier die Plattform-Unternehmen die Nase vorn haben. Sie haben die Bedeutung schon vor vielen Jahren erkannt und investieren gezielt enormes Kapital in die Forschung und Entwicklung sowie Akquisition von AI-Technologien. Leider unterschätzen die meisten Geschäftsführer, welche Auswirkungen diese Entwicklungen auf die Zukunftsfähigkeit ihres Unternehmens haben. Insbesondere Unternehmen aus der Old Economy werden dabei zu den großen Verlierern gehören. Dieser Artikel erläutert die Kräfte die aktuell von den Plattform-Unternehmen ausgehen und warum Unternehmen eine General AI-Strategie benötigen, um ihren IT-Betrieb und andere Geschäftsprozesse autonom zu betreiben.

Herausforderungen der Old Economy

Heutzutage stehen Unternehmen der Old Economy gleich mehreren Herausforderungen gegenüber. Dazu gehören der oft zitierte War for Talent oder die Unfähigkeit großer Unternehmen, sich nicht schnell genug den dynamischen Marktbedingungen anpassen zu können. Aber es existiert eine weitere oft unterschätze Bedrohung – der Wettbewerb. Allerdings nicht der Wettbewerb aus dem eigenen Wirkungskreis, sondern von High-Tech Unternehmen, die unaufhaltsam in alle Märkte und Industrien einmarschieren. Diese sogenannten Plattform-Unternehmen, genauer Google, Amazon, Facebook, Alibaba, Baidu, Tencent usw., dringen mit unvorstellbaren finanziellen Mitteln in die bekannten Wettbewerbsbereiche ein und kapern den Lebenszyklus der Kundenbeziehungen. Dies führt dazu, das Unternehmen der Old Economy überzeugende Antworten finden müssen, wenn sie ihren Fortbestand sichern wollen. Die folgenden drei Bedrohungen gehen von den Plattform-Unternehmen aus:

Die Möglichkeit, Geld zu verbrennen

Plattform-Unternehmen stehen große finanzielle Mittel zur Verfügung, welche sie investieren, ohne Budgets großartig priorisieren zu müssen. Das Geld setzen sie schlichtweg dafür ein, um zu experimentieren. Im Vergleich dazu steht Unternehmen aus der Old Economy nur ein kleiner finanzieller Spielraum zur Verfügung, den sie nutzen können, um zu investieren bzw. um zu spielen. Das hängt damit zusammen, dass sie ständig dem Druck durch externe Stakeholder wie dem Kapitalmarkt, Aktionären, Kunden usw. ausgesetzt sind.

Stellen Sie sich bspw. vor, dass ein Pharma-Riese wie Pfizer aus den USA oder Bayer aus Deutschland ein neues Mittel zur Krebsbekämpfung entwickelt wollen und hierfür 500 Millionen US-Dollar in dieses Abenteuer investieren. Nun, dieses Projekt muss funktionieren. Andernfalls werden die CEOs beider Unternehmen höchstwahrscheinlich noch am selben Tag gefeuert und der Aktienkurs fällt um mindestens 30 Prozent, wenn das Projekt scheitert. Warum? Weil das Kerngeschäft von Pfizer und Bayer die Forschung & Entwicklung (F&E) von Medikamenten ist. Das bedeutet, dass jeder Dollar, der von beiden in F&E investiert wird, einen direkten Einfluss auf das Kerngeschäft hat.

Nun stellen Sie sich vor, dass ein Plattform-Unternehmen wie Google oder Alibaba exakt dasselbe machen würde. Ein Medikament entwickeln, um Krebs zu bekämpfen. Ebenfalls mit einem Projektvolumen von 500 Millionen US-Dollar. Was würde passieren, wenn das Projekt scheitert? Nun, das wäre eine ganz andere Geschichte. Jack Ma von Alibaba würde sich vor die Finanzanalysten und andere Stakeholder stellen und etwa folgendes sagen: „Wir haben versucht Krebs zu heilen. Wir haben versagt. Wir haben 500 Millionen US-Dollar verbrannt. ABER, wir werden aus unseren Fehlern lernen und wir werden es weiter versuchen!“. Ma würde als Held dargestellt werden. Schließlich liegt Alibabas Kerngeschäft nicht darin, ein Pharma-Unternehmen zu sein, sondern Güter über einen Webshop zu vertreiben. Und dennoch „opfert“ sich Alibaba auf, um eine Lösung gegen Krebs zu finden. Hinzu kommt, dass die gemachten Fehler keinen Einfluss auf das eigene Kerngeschäft hatten. Ähnlich verhält es sich bei Google (Internetsuche und Werbung (98 Prozent von Alphabets Umsatz kommen aus Werbeeinnahmen) oder Amazon (Webshop).

Allerdings ist der Zugang zu Geld nur die eine Seite der Medaille. Denn viel wichtiger ist die Einstellung. Plattform-Unternehmen haben die Fähigkeit und die Einstellung, das Risiko einzugehen, Geld „zu verbrennen“. Etwas, was Unternehmen aus der Old Economy fehlt. Nehmen Sie sich einfach mal Jeff Bezos als Musterbeispiel. Anstatt ständig die Shareholder mit Dividenden zu befriedigen reinvestiert Bezos konsequent den Großteil der Erträge in F&E (16,1 Milliarden US-Dollar im Jahr 2016) und lässt Amazon experimentieren. Zum Vergleich, Bayer hat im Jahr 2016 nur 5,2 Milliarden US-Dollar in F&E investiert.

Die Strategie, direkte Kundenbeziehungen zu kapern

Plattform-Unternehmen kapern die direkten Beziehungen zwischen den Unternehmen der Old Economy und deren Kunden. In der Vergangenheit hat eine Marke seine direkten Kundenbeziehungen aufgebaut und gepflegt, indem Kunden über mehrere Kanäle wie den Einzelhandel, kundenspezifische Werbung oder e-Commerce erreicht wurden. Über diese Form von Plattformen waren Marken in der Lage, Kunden so zu beeinflussen, dass diese ihre Produkte und Dienstleistungen kauften. Allerdings war es der Kunde, er sich die entsprechende Plattform (Kanäle) ausgesucht hat, um die Güter und Dienstleistungen zu kaufen.

Heute wandert der Point of Sale verstärkt in die Plattformen von Unternehmen wie Google, Amazon, Alibaba oder Facebook. Und dies insbesondere deswegen, da jeder Social Media Berater den Ratschlag gibt, mit Kunden über Facebook anzubandeln, auf Google Werbung zu schalten und Produkte über Amazon oder Alibaba zu vertreiben. Von einer Seite betrachtet ist dieser Ratschlag völlig richtig. Schließlich erreicht man über die genannten Plattformen ein viel größeres Zielpublikum. Schaut man jedoch aus einer anderen Perspektive auf den Hinweis, lässt er Social Media Berater als alles andere dastehen als gute Freunde. Warum? Nun, wenn Sie sich dazu entscheiden, ihre Marketing- und Vertriebsaktivitäten zu einem Plattform-Unternehmen zu verlagern, dann verlieren Sie unmittelbar die direkte Kundenbeziehung. Sie erhalten möglicherweise von Facebook, Google, Amazon & Co. ein paar Daten und Analysen, aber sie verlieren die viel wertvollere direkte Beziehung zu Ihren Kunden. Eine Konsequenz daraus besteht darin, dass sich ein Kunde (möglicherweise einer Ihrer existierenden Kunden) damit auf einer Plattform mit AI-Assistent befindet. Sie denken nun vermutlich “Na und?”. Nun, in einem Interview mit „The Drum“ erklärt Alibabas Principal Engineer Rong Jin, dass Alibaba AI-Technologien einsetzt, um Produktempfehlungen zu verbessern und dabei hilft, exakt die Phasen im Einkaufsprozess zu identifizieren, um den Kunden bei seiner finalen Kaufentscheidung zu beeinflussen. Zudem setzt Alibaba auf AI, um für jeden Kunden ein maßgeschneidertes Einkaufserlebnis und zielgerichtetes Marketing für Marken zu schaffen. Jin erwähnt dabei ebenfalls, dass AI-Technologien das Geschäft von Alibaba in der Zukunft verändern werden, indem sämtliche Daten, die über das Unternehmen hinweg entstehen, besser zu verknüpfen, um die Kunden besser zu verstehen und somit deren Einkaufsprozess zu optimieren.

Somit wird eine Plattform (die AI-Technologien einsetzt) alles Mögliche tun, den Kunden zu befriedigen, um ihn am Verlassen oder Wechseln zu hindern. Hierzu wählt die Plattform (AI-Technologie) Güter und Dienstleistungen aus einem Pool von Marken, die zu den Anforderungen des Kunden passen. Dies ist gut für den Kunden und die Plattform, alarmierend für Unternehmen aus der Old Economy, da die Marke selbst potentiell in den Hintergrund rückt.

Die Macht, unendliche Datenmengen zu sammeln um eine General AI zu entwickeln

Plattform-Unternehmen sammeln unendliche Mengen an Daten und erstellen auf dieser Basis ihre eigenen General AIs. Eine General AI kann Aufgaben aus unterschiedlichen Bereichen handhaben. Hierfür wendet sie Erfahrungen, welche sie in einem Bereich gesammelt hat, in einem anderen Bereich an. Damit ist sie in der Lage schneller zu lernen. Allerdings ist der dafür notwendige Wissenstransfer nur möglich, wenn eine semantische Verbindung zwischen den unterschiedlichen Bereichen existiert. Und je stärker diese Verbindung ist, desto schneller lässt sich der Übergang des Wissens vornehmen.

Für den Aufbau ihrer General AIs folgen Plattform-Unternehmen dem Quidproquo Prinzip. Endkunden geben ihre Daten und Wissen an die Plattformen und erhalten im Gegenzug kostenlos Zugriff auf die angebotenen Services. Intelligent Private Assistants wie Amazon Echo oder Google Home sind der nächste Evolutionsschritt. Sie lassen sich einsetzen, um Smart-Home-Lösungen zu steuern oder unser Leben einfacher zu gestalten, indem wir unsere Stimme nutzen. Diese technologische Entwicklung zeigt uns eine wichtige Erkenntnis: Amazon, Google & Co finden neue Wege, um uns über andere Kanäle an sich zu binden. Sie sammeln Daten und Informationen, die sie benötigen, um bessere Entscheidungen zu treffen und uns bessere Antworten zu liefern. Die Absicht dahinter ist klar: Jeder von uns wird schlichtweg dafür genutzt, um die AI-Systeme auf einer täglichen Basis zu trainieren. Das bedeutet, dass alle Services, die Google & Co. ihren Kunden anbieten, letztlich dazu dienen, ihre General AIs zu bauen, die auf den gesammelten Daten basieren.

Im Gespräch mit „The Drum“ geht Rong Jin exakt auf diese Thematik ein, indem er erläutert, dass Datenanalysen und Pattern Matching Alibaba dabei helfen, Datenmodelle auf andere Bereiche anzuwenden, die über das eCommerce-Geschäft hinausgehen. So hat Alibaba angefangen, seine AI-Technologie zu nutzen, um andere Geschäftsbereiche wie Finanzen, Versand, Gesundheitswesen und Entertainment aufzurüsten und zu verknüpfen. Und das ist nichts anderes, als die Entwicklung einer General AI.

Plattform-Unternehmen nutzen diese General AIs für disruptive Ansätze und stellen damit eine Gefahr für Unternehmen aus der Old Economy dar. Hinzu kommt, dass ausschließlich die Plattform-Unternehmen Zugriff auf ihre General AIs besitzen und Dritten keinen Zugriff gewähren.

AI ist die mächtigste Lösung, um diese Gefahren zu bewältigen

Eine starke Marke, hervorragende Dienstleistungen und Innovationen sind die Grundvoraussetzungen, um im Kampf mit Plattform-Unternehmen zu überleben. Der Wandel hin zu einem exponentiellen Geschäftsmodell ist allerdings die einzige Möglichkeit, um erfolgreich gegen Unternehmen anzutreten, die bereits exponentiell agieren. Hinzu kommt, dass Plattform-Unternehmen nicht zurückhaltend agieren. Sie starten direkt mit der Disruption von milliardenschweren Industrien wie das Gesundheitswesen, den Finanzsektor, den Telekommunikations-, Logistik- oder Energiebereich.

AI ist eine der Lösungen – möglicherweise die Einzige – mit denen Unternehmen aus der Old Economy sich gegen diesen Wettbewerb entgegenstemmen können. Hierzu können sie auf das stärkste Mittel zurückgreifen, was Unternehmen aus der Old Economy besitzen: ihre langjährigen Erfahrungen. In Kombination mit einer General AI können Unternehmen jeden Prozess organisationsweit autonom betreiben, während sie ihr Wissen behalten und ihre Daten und Erfahrungen gewinnbringend einsetzen.

Hierfür benötigt die Old Economy einen eigenen unabhängigen Plattform-Ansatz, da jedes einzelne Unternehmen selbst zu wenig Daten besitzt, die notwendig sind, um eine eigene General AI zu bauen. Der Zugang zu dieser Form von General AI-Plattform hilft ihnen dabei, die Erfahrungen und das geistige Eigentum (IP) zu multiplizieren und voneinander zu lernen. Auch wenn die AI Zugriff auf einen vollumfänglichen Daten-Pool benötigt, müssen die individuellen Daten sowie die IP und die Erfahrungen stets unter der vollen Kontrolle des einzelnen Unternehmens liegen. Dafür ist eine unabhängige dritte Instanz notwendig, welche die Daten sicher organisiert und semantisch in Verbindung setzt. Die folgende Strategie zeigt, wie Unternehmen aus der Old Economy diesen Ansatz umsetzen können:

  1. Ein Unternehmen sammelt sämtliche Daten, die innerhalb der Organisation existieren.
  2. Die Daten werden an eine unabhängige und sichere Plattform übergeben, welche einen geteilten Daten-Pool für die Old Economy betreibt.
  3. Im Gegenzug erhält das Unternehmen Zugriff auf den geteilten Daten-Pool, in welchem Daten gesammelt und semantisch organisiert werden.
  4. Das Unternehmen nutzt die Daten und die notwendige Technologie, um eine eigene General AI für die Organisation zu entwickeln.
  5. Das auf der General AI basierende Ergebnis: Neue Geschäftsmodelle, Angebote, Services, etc.
  6. Die Daten, welche aus den neuen Geschäftsmodellen, Angeboten und Services resultieren, wandern anschließend wieder in den geteilten Daten-Pool.

Mit diesem Ansatz werden Unternehmen in die Lage versetzt, eine AI zu betreiben, ihr Wissen und Daten zu nutzen und ihre Erfahrungen autonom ausführbar zu machen. Im gleichen Zuge behalten sie ihre IP und schaffen Werte basierend auf ihren Erfahrungen.

AI-enabled Enterprise: Jeder Prozess kann und wird von einer AI betrieben werden

Heute lässt sich mit einer AI alles automatisieren, was als ein Prozess beschrieben werden kann. Das bedeutet, dass die Einführung einer AI zu höheren Automatisierungsraten führt, mit denen sich Kosten senken lassen und mehr Zeit für Mitarbeiter übrigbleibt, um diese für strategische Themen einzusetzen. Der Einsatz einer AI führt also zu mehr freien Kapital und Zeit, was ein Unternehmen dazu befähigt, sich mit innovativen Dingen zu beschäftigen. Stellen Sie sich auf Ihrer Reise zu neuen Geschäftsmodellen also vor, was sie mit dem frei werdenden Kapital und ihren Mitarbeitern anstellen können, wenn Ihre Unternehmensprozesse größtenteils von einer AI übernommen werden. Die folgenden sieben Schritte helfen Ihrem Unternehmen dabei, ein „AI-enabled Enterprise“ zu werden:

  1. Erstellen Sie eine semantische Karte aller Daten innerhalb Ihres Unternehmens: Akzeptieren Sie einen kontinuierlichen Datenfluss als Grundlage für Ihre zukünftige Strategie.
  2. Beginnen Sie mit der autonomen Automation Ihres IT-Betriebs: Die Automatisierung des IT-Betriebs führt unmittelbar zu einem Mehrwert durch die AI und hilft dabei, alle Daten zu sammeln, die im Unternehmen in digitaler Form existieren.
  3. Überdenken Sie Ihre Strategie: Denken Sie hierbei in neuen (exponentiellen) Geschäftsmodellen.
  4. Schulen Sie Ihre gesamte Organisation Top-Down: Schulen und Bereiten Sie Ihre Organisation darauf vor, sich zu einem AI-enabled Enterprise zu verändern und akzeptieren Sie neue Geschäftsmodelle.
  5. Erweitern Sie den autonomen Betrieb auf andere Geschäftsprozesse: Mit der Nutzung des Unternehmenswissen anhand der IT-Automation lassen sich fortwährend immer mehr Prozesse autonom betreiben.
  6. Setzen Sie auf Predictive Analytics: Nutzen Sie die Daten aus Ihrer semantischen Karte, um Ihre Geschäftsprozesse und zukünftigen Planungen zu optimieren und zu beschleunigen.
  7. Berücksichtigen Sie Data-Driven Prozesse: Nutzen Sie Ihre Daten und AI, um ergebnisorientierte Prozesse zu entwickeln. Lassen Sie sich Vorschläge von der AI unterbreiten.

Sämtliche Daten die bereits im Unternehmen existieren und in Zukunft gesammelt werden, finden sich am Ende in der IT-Umgebung wieder – gespeichert in Applikationen, Datenbanken oder Speichersystemen. Daher sollte eine AI von Beginn an in der IT-Umgebung eingebunden werden, da die IT den technischen Kern eines jedes Unternehmens bildet und dort alle relevanten Informationen durchlaufen. Die IT erzeugt einen regelmäßigen Datenfluss der sich sehr gut als statistische Grundlage für das semantische Mapping von Informationen einsetzen lässt. Im Laufe der Zeit kann ein Unternehmen darüber mehr über seine Organisation und den Markt lernen.

Viel wichtiger ist allerdings, dass Sie aus Ihrer Komfortzone kommen – Ihrem aktuellen Geschäftsmodell und der Industrie, in der Ihr Unternehmen derzeit aktiv ist! Es macht überhaupt keinen Sinn, wenn Sie ein Medienunternehmen sind und einfach nur etwas „Neues“ für die Medienindustrie entwickeln. Sie müssen industrieübergreifend denken und etwas entwickeln, dass für Ihre Kunden einen ergänzenden Zusatznutzen bietet und damit für Ihr Unternehmen eine neue Industrie erschließt.

Kleiner Hinweis: Amazon war mal ein Webshop. Mittlerweile hat das Unternehmen mehrere Geschäftseinheiten, die in unterschiedlichen Industrien aktiv sind. Zudem versucht Amazon durch Experimente zu wachsen und probiert einfach aus, was potentiell funktionieren könnte.





Latest Images