Blog

De subsidie bedraagt € 900.000 en het project heeft een looptijd van twee jaar. Het project wordt vanuit de Hochschule Osnabruck Lingen, Instituut for Duale Studiengange en de Hanzehogeschool Groningen, het Instituut voor Engineering, HBO-ICT en Bio-Informatica mogelijk gemaakt.

Artificial Intelligence: Hype, of `Here to Stay’?

Naast parallel computing, ‘the cloud‘ en big data is er een speler uit het tech-veld die de afgelopen jaren prominent aanwezig is: Artificial Intelligence (AI). Of je het nu hebt over zelfrijdende auto’s, de automatische spraakherkenning van Google of Apple, of je je afvraagt of de video die je bekijkt wel ‘echt’ is (of een deep fake betreft): AI is niet meer uit het huidige wereldbeeld weg te denken. Maar wat is AI nu eigenlijk? En kan AI de bestaande hype ook waarmaken?

In dit artikel gaan we in op de oorsprong van AI, en wat het vakgebied nu eigenlijk inhoudt. Ook laten we zien waar je AI in de praktijk als ondernemer voor zou kunnen gebruiken, en wat het toepassen van AI binnen je eigen organisatie of bedrijf op zou kunnen leveren.

Een korte geschiedenisles

Om een volledige beschrijving te kunnen geven van wat Artificial Intelligence als vakgebied inhoudt, is het eigenlijk nodig om een halve geschiedenisles te geven over het ontstaan van het vakgebied. Omdat hier echter hele boeken aan te wijden zijn, zullen we in dit artikel volstaan met een korte samenvatting.

Artificial Intelligence als vakgebied is parallel ontstaan met informatica. Al kort na het ontstaan van de eerste digitale computer in de jaren ’40 van de vorige eeuw werd nagedacht over ‘denkende machines’, met als grootste bijdragen aan het veld de McCulloch-Pitts-neuronen uit 1943[1] en de Turing Test uit 1948.[2]

In de decennia hierop heerste er veel optimisme in het vakgebied, en – ondanks grote tegenslagen die de AI Winters[3] genoemd worden – ontstonden er twee verschillende stromingen binnen AI:

  • de connectionisme-stroming, waarin modellen op basis van met elkaar verbonden digitale neuronen – gebaseerd op de biologische functionaliteit van neuronen in onze hersenen – problemen op poogden te lossen;
  • de logisch-symbolische stroming, waarin door middel van symboolmanipulatie en logica regel-gebaseerde (kennis-)systemen werden ontworpen. Denk hierbij aan een systeem dat net zoals een expert kan redereneren op basis van de informatie die het heeft, en de juiste conclusie kan trekken door de juiste ‘regels’ op het juiste moment toe te passen.

Door de toenemende snelheid van computerchips en processoren is het vakgebied in de afgelopen 20 jaar in een stroomversnelling gekomen: operaties die op grote schaal eerst niet rendabel of überhaupt mogelijk waren doordat computers nog niet snel genoeg waren, kunnen nu op een huis-tuin-en-keukenlaptop gedraaid worden. Ook verbeteringen in algoritmen en de beschikbaarheid van grote hoeveelheden data (voor veel AI-modellen een vereiste) hebben de snelle opkomst van AI gefaciliteerd.[4] De vraag vanuit Big Data[5] heeft gezorgd voor een grotere vraag naar geautomatiseerde technieken die meer inzicht kunnen geven in grote kwantiteiten data.

Mocht je geïnteresseerd zijn in een uitgebreider overzicht van de geschiedenis van AI, dan is de Engelstalige wikipedia-pagina een goed startpunt. Graag verwijs ik je naar de literatuurlijst onderaan deze pagina.

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.
Steven Warmelink, data AI expert
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.

[1] De voorlopers van de bouwstenen van de huidige Neural Networks (McCulloch & Pitts, 1943).

[2] De Turing Test stelt dat, wanneer een mens via een computer-interface met een systeem communiceert en niet kan bepalen of aan de andere kant van het systeem een ander mens of een computer zit, het redelijk is om te concluderen dat de computer intelligent gedrag vertoont (Turing, 1948).

[3] De grote opmars van het vakgebied werd door een combinatie van factoren een halt toegeroepen: na o.a. het vernietigende boek Perceptrons van Minsky & Papert uit 1969, en een vakgebied dat de (te) hoog gespannen verwachtingen niet waar kon maken, droogde het enthousiasme (en financiering) voor het vakgebied snel op. De hooggespannen verwachtingen worden geïllustreerd door het oneindige optimisme dat vroeg in het vakgebied heerste: in 1958 zeggen Simon & Newell dat digitale computers binnen 10 jaar de wereldkampioen schaken kunnen verslaan – een prestatie die bijna 40 jaar op zich laat wachten in de vorm van IBM’s Deep Blue in 1997.

[4] Ironisch gezien was in de jaren ’70 schaken hét toonbeeld van wat een ‘intelligente’ computer zou moeten kunnen (Ensmenger, 2012), maar toen het eenmaal door Deep Blue was opgelost, was het geen AI meer. Een soortgelijke ontwikkeling is nu te zien met autonome voertuigen en spraakherkenning.

[5]  Hoeveelheden data zijn zo groot geworden dat handmatig analyseren onbegonnen werk is; zo genereert Facebook zo’n 4,000,000,000,000 MB – oftewel 4 miljoen Gigabyte– aan data per dag. https://research.fb.com/blog/2014/10/facebook-s-top-open-data-problems/

Tim
24 juni 2021

Archief

Archieven

Delen

Share on linkedin
Share on twitter